读《数学之美》有感——第一篇
Posted coding-specification-of-java
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了读《数学之美》有感——第一篇相关的知识,希望对你有一定的参考价值。
《数学之美》让我改变了对数学刻板的印象,我一直都不知道数学研究得那么深入,到底有什么作用。但是经过这一次阅读,我发现数学之美可以通过信息技术直接具体地展示在人们面前。我们在解决一些问题上,一个优秀的模型对于解决问题来说实在太重要了。
我先介绍两个我觉得比较有意思的应用吧!首先是数学在中文分词中的意义。再过去的相当长一段时间,基于语法的分词效果并不理想,因为中文中有很多两个名词组成的单词相类似的情况,基于语法是很难彻底区分开的。七十年代,当时 IBM 的 Fred Jelinek (贾12数学之美里尼克) 和卡内基·梅隆大学的 Jim and Janet Baker (贝克夫妇,李开复的师兄师姐) 分别独立地提出用隐含马尔可夫模型来识别语音,语音识别的错误率相比人工智能和模式匹配等方法降低了三倍 (从 30% 到 10%)。 八十年代李开复博士坚持采用隐含马尔可夫模型的框架, 成功地开发了世界上第一个大词汇量连续语音识别系统 Sphinx。用对了一个马克尔夫模型,得到如此显著的成果,是令人很兴奋的事情。浅析一下什么是马克尔夫模型,下一个词出现的概率是基于前面的词语出现的条件的,所以我们只要统计每个词出现的概率就能简单地知道下一个应该出现什么词,当然如果一个句子很长的话,每个词都算进来,显然是很浪费时间的,那么下一个词出现的概率绝大多数取决于前一个词。如此便能大大提高模型的效率了。
第二个是信息熵。众所周知,我们掌握的有效信息越多,我们做出的决定就越准确。所以我们应该如何去衡量信息呢?一个曾被人称为如果与爱恩斯坦相比,是对他的不公平的十分聪明的人提出了一个熵的概念。为了纪念他,信息熵也叫香农熵。那么什么是信息熵呢?简单地说,就是一个衡量信息对事件的影响大小的度量。有一个简单的公式可以对其进行计算。信息熵可以对不确定的变量进行衡量,我们可以用它来判断模型的好坏。
最后,我想说,这本书有一定的专业性,但也不乏一些有趣的小故事,可以给提供大家一个新的理解数学的角度,但是讲诉的知识并不深入,但是有很多外链。所以十分值得学习计算机的人去看。
以上是关于读《数学之美》有感——第一篇的主要内容,如果未能解决你的问题,请参考以下文章