数学之美读书随笔

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了数学之美读书随笔相关的知识,希望对你有一定的参考价值。

 

最近在读吴军的《数学之美》,书里很多内容之前已经略有了解,这次有了新体会,随手记下,算是开卷有益吧。

 

--20160701

  1. Hidden Markov Model

从对(相对静态的)随机变量的研究发展到对随机变量的时间序列S1S2S3..., 即随机过程(动态的)的研究。

2.   信息的作用

消除不确定性。也就是说,收集更多的相关信息,可以得到更明确的结论。

joint probabilityXY一起出现的概率

conditional probability:在Y不同值的前提下X的概率分布

3.   信息论

信息熵 entropy

互信息 mutual information

相对熵 relative entropy (kullback-leibler divergence)

相对熵可以衡量两个随机分布之间的距离,当两个随机分布相同时,它们的相对熵为零,当两个随机分布的差别增大时,它们的相对熵也会增大。所以相对熵(KL散度)可以用于比较文本的相似度,先统计出词的频率,然后计算 KL散度就行了。(找个机会入门下信息论,这段出现的词都不知道是啥)

4.   产生序列

后验概率最大(后验概率最大是最优,是匹配)

5.   聚类

期望最大化。(有了新感觉啊,随机初始化,期望最大化,调参,自适应,联想到这两天看的spark,这个应该是比较适合用spark这种框架来算,因为要算迭代,用RDD,没有中间写入,lazy计算,可以优化计算过程,是不是更好)

 

以上是关于数学之美读书随笔的主要内容,如果未能解决你的问题,请参考以下文章

《数学之美》读书

《数学之美》读书记录:第一章导图记录

《数学之美》读书记录思维导图记录:第四章,谈谈中文分词

数学之美读书笔记——自然语言处理教父和他的弟子们

为什么我们更容易理解自然科学,却难以欣赏数学之美?

书籍推荐——一本老书,吴军老师《数学之美》