隐马尔可夫模型建模
隐马尔可夫模型(Hidden Markov Model)也就是HMM是一个统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。
上面是比较学术的解释,下面看看我的解释:
隐马尔可夫模型的意思大概就是:我们现在能看到的东西其实都是表象,它的背后有一个我们看不见的东西一直在变化,这个看不见的东西影响着我们能看到的东西的变化。通常我们要由我们能看到的这个东西去推测我们看不见的东西是怎么在变化的,并且去推测这个看不见的东西怎么影响着我们能看到的东西。
其中,这个看不见的东西就是隐含状态 ,能看见的东西就是可见状态 ,隐含状态之间的变化称为转换概率 ,隐含状态通过输出概率 影响着可见状态。
隐马尔可夫模型可以说是世界的一种解释,比如说现在模拟一个聊天的场景,就你和你心爱的姑娘聊天吧,聊天过程中,人的心理状态(隐含状态)一直在变化(转换概率),说的话(可见状态)也随着心理状态的变化而变化,在姑娘比较高兴的时候,她让你滚的概率就很小,她生气的时候,就很可能让你滚蛋(输出概率)。隐马尔可夫模型就是对这样的场景的建模。我们要学会从可见状态序列去推测隐含状态序列。
隐马尔可夫模型可以用下图描述:
上图中, $X_1,X_2,X_3 …… X_T$ 是隐含序列,$O_1,O_2 …… O_T$ 是观测序列。
一个隐马尔可夫模型由三个概率确定:
- 初始概率分布,即初始的隐含状态的概率分布,记为π;
- 状态转移概率分布,即隐含状态间的转移概率分布, 记为A;
- 观测概率分布,即由隐含状态生成观测状态的概率分布, 记为B;
以上的三个概率分布可以说就是隐马尔可夫模型的参数,而根据这三个概率,能够确定一个隐马尔可夫模型$\lambda=(A,B,\pi)$ 。
隐马尔科夫链的三个基本问题为:
- 给定模型$\lambda=(A,B,\pi)$ ,求$P(O|\lambda)$。
- 给定模型$\lambda=(A,B,\pi)$ 和$O$,求最匹配的隐藏状态序列$X$
- 给定观测序列$O$,估计模型的参数$λ$, 使得$P(O|\lambda)$最大?
哎,太抽象了,搞不懂了,以后有时间在搞,详解这几个基本问题。