概率图:HMM:Learning问题(EM算法)

Posted feynmania

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了概率图:HMM:Learning问题(EM算法)相关的知识,希望对你有一定的参考价值。

一:问题描述

Learning问题就是参数估计问题,也就是求模型参数λ,具体形式为 :λ_hat=argmax P(O|λ)   【通过最大化似然求得最优模型参数 λ;优化算法用EM,可类比GMM模型中求θ用的EM】

二、EM算法应用于HMM-learning模型的公式推导(具体可参考之前博客GMM:EM)

 技术图片

                                                                                 (来源:B站up主,shuhuai008,板书) 

备注:

①最后求出技术图片后,需要再代回技术图片,最后得到t+1时刻的Π值。【拉格朗日乘子法也可以用于求数值解】

②将EM算法应用于HMM算法的求解,其实就是引入EM算法的公式(用HMM的参数表达),另外加上拉格朗日乘子法得到λ=(Π,A,B)的迭代公式

技术图片

       用HMM参数表达的EM算法

公式推导中的关键小技巧:

③积分求和与条件概率=> 化简公式

④隐含约束:Σ1NΠi=1

⑤EM算法表达为求解最大值形式:argmax,带上隐含约束即为带约束的最值问题,自然地想到用拉格朗日乘子法求解。

  

参考资料:

1.https://www.bilibili.com/video/BV1MW41167Rf?p=5。作者:shuhuai008

以上是关于概率图:HMM:Learning问题(EM算法)的主要内容,如果未能解决你的问题,请参考以下文章

HMM - (补充) 参数求解之 F/B 算法细节

HMM (隐马尔可夫) 推导 (下) - 参数估计 (EM)

概率机器学习(开篇)

概率图:HMM(隐马尔可夫模型)

隐马尔科夫模型(HMM)

隐马尔科夫模型HMM详解