【摘要】:我们的最后一个EM的应用涉及学习隐马尔可夫模型中的转移概率。回忆一下在第十五章中,一个隐马尔可夫模型可以表示为一个动态的贝叶斯网络,它有一个离散的状态变量,如图20.11所示。我们已经知道如何学习贝叶斯网络,但是有一个复杂因素:在贝叶斯网络中,每个参数是不同的;而另一方面,在隐马尔可夫模型中,在时刻t从状态i到状态j的单独的转移概率θi j t= P在时间中是重复的——也就是说,对于所有的t,有θi j t=θi j。
20.3.3 学习隐马尔可夫模型
我们的最后一个EM的应用涉及学习隐马尔可夫模型(HMM)中的转移概率。回忆一下在第十五章中,一个隐马尔可夫模型可以表示为一个动态的贝叶斯网络,它有一个离散的状态变量,如图20.11所示。每个数据点由一个有限长度的观察序列组成,要解决的问题就是从一组观察序列(也可能只是一个长序列)中学习转移概率。
图20.11 表示一个隐马尔可夫模型的展开的动态贝叶斯网络(图15.14的重复)
我们已经知道如何学习贝叶斯网络,但是有一个复杂因素:在贝叶斯网络中,每个参数是不同的;而另一方面,在隐马尔可夫模型中,在时刻t从状态i到状态j的单独的转移概率θi j t= P(Xt+1= j|Xt= i )在时间中是重复的——也就是说,对于所有的t,有θi j t=θi j。为了估计从状态i到状态j的转移概率,我们可以简单地计算系统在状态i时转移到状态j的次数的期望比例:
再一次,期望计数可以通过任何 HMM 推理算法计算得到。图 15.4 中所示前向-后向算法可以修改得很容易计算必要概率。重要的一点是,所需概率是通过平滑而不是过滤获得的;也就是说,我们需要注意在估计一个特定转移发生的概率时的后续证据。如我们在第十五章中所说的,谋杀案中的证据通常是在犯罪发生之后(即从状态i转移到状态j)获得的。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。