学习一个隐马尔科夫模型的应用实例:中文分词

Posted 机器学习研究会

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学习一个隐马尔科夫模型的应用实例:中文分词相关的知识,希望对你有一定的参考价值。



点击上方 “机器学习研究会”可以订阅哦
摘要
 

什么问题用HMM解决

现实生活中有这样一类随机现象,在已知现在情况的条件下,未来时刻的情况只与现在有关,而与遥远的过去并无直接关系。


比如天气预测,如果我们知道“晴天,多云,雨天”之间的转换概率,那么如果今天是晴天,我们就可以推断出明天是各种天气的概率,接着后天的天气可以由明天的进行计算。这类问题可以用 Markov 模型来描述。

进一步,如果我们并不知道今天的天气属于什么状况,我们只知道今明后三天的水藻的干燥湿润状态,因为水藻的状态和天气有关,我们想要通过水藻来推测这三天的真正的天气会是什么,这个时候就用 Hidden Markov 模型来描述。


HMM 模型的本质是从观察的参数中获取隐含的参数信息,并且前后之间的特征会存在部分的依赖影响。

我们从如何进行中文分词的角度来理解HMM

根据可观察状态的序列找到一个最可能的隐藏状态序列

中文分词,就是给一个汉语句子作为输入,以“BEMS”组成的序列串作为输出,然后再进行切词,进而得到输入句子的划分。其中,B代表该字是词语中的起始字,M代表是词语中的中间字,E代表是词语中的结束字,S则代表是单字成词。



原文链接:

http://m.blog.csdn.net/article/details?id=54891582

“完整内容”请点击【阅读原文】
↓↓↓

以上是关于学习一个隐马尔科夫模型的应用实例:中文分词的主要内容,如果未能解决你的问题,请参考以下文章

基于隐马尔科夫模型的中文分词方法

利用隐马尔科夫链(HMM)模型实现中文分词

HMM(隐马尔科夫)用于中文分词

Python实现HMM(隐马尔可夫模型)

理解隐马尔科夫(HMM)模型

HMM(隐马尔可夫)中文分词