HMM经典介绍论文Rabiner 1989翻译(十六)——放大

Posted Vic时代

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HMM经典介绍论文Rabiner 1989翻译(十六)——放大相关的知识,希望对你有一定的参考价值。

5 HMM的实现问题

前面两节的讨论主要是关于HMM的理论以及模型的变体。这一节我们会讨论HMM的实现问题,包括放大、多观测序列、初始参数估计、数据丢失、模型大小以及类型的选择。对其中一些实现问题,我们可得到精确解析解;而对于其他问题,我们只能给出一些经验建议。

5.1 放大

为了理解在HMM参数估计过程中为什么需要放大,考虑(18)中定义的 αt(i) 。可以看到 αt(i) 包含很多项的和,每一项的形式为

(s=1t1aqsqs+1s=1tbqs(Os)),

其中 qt=Si 。由于每个 a b项是小于1的(一般是远小于1的),所以当 t 变得比较大时(比如10或者更多),αt(i)的每一项开始趋向于0。对非常大的 t (100或者更多),αt(i)计算的动态范围会超出机器的精度范围(甚至是双精度)。所以,唯一有效的计算方式是结合一个放大过程。

基本的放大步骤是把 αt(i) 乘以一个放大系数并且这个放大系数是独立于 i 的(即只依赖于t),使得放大后的αt(i) 1tT )位于计算机的动态范围中。对 βt(i) 也要进行一个相似的放大步骤,在计算的最后,需要消掉放大系数。

为了更好地理解放大过程,考虑状态转移系数 aij 的估计公式。如果我们把估计公式(41)直接写成前向变量和后项变量的形式。可以得到

a¯ij=T1t=1αt(i)aijbj(Ot+1)βt+1(j)Tt=1Nj=1αt(i)aijbj(Ot+1)βt+1(j).(90)

(原文中的符号表示有些混乱,下面做了些修改。)

首先令 α¯1(i)=α1(i)

对每个 t ,我们首先根据递推公式(20)计算α¯t(i),然后乘以一个放大系数 ct

ct=1HMM经典介绍论文Rabiner 1989翻译——连续观测密度

HMM经典介绍论文Rabiner 1989翻译(十七)——多观测序列

HMM经典介绍论文Rabiner 1989翻译(十八)——参数初始化

论文推荐最新十篇机器翻译相关论文—自然语言推理无监督神经机器翻译多任务学习局部卷积图卷积多语种机器翻译

报童钱包和迪米特法则(设计模式迪米特原则经典论文翻译)

深度学习经典论文翻译合集Deep Learning Papers Translation(CV)