图解AI数学基础 | 信息论
Posted ShowMeAI
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了图解AI数学基础 | 信息论相关的知识,希望对你有一定的参考价值。
作者:韩信子@ShowMeAI
教程地址:http://www.showmeai.tech/tutorials/83
本文地址:http://www.showmeai.tech/article-detail/164
声明:版权所有,转载请联系平台与作者并注明出处
信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。信息论中包含的知识和概念在机器学习中也有应用,典型的例子是其核心思想『熵』的应用。
例如,决策树模型ID3、C4.5中是利用信息增益来确定划分特征而逐步生长和构建决策树的;其中,信息增益就是基于信息论中的熵。
1.熵(Entropy)
熵是1854年由克劳休斯提出的一个用来度量体系混乱程度的单位,并阐述了热力学第二定律熵增原理:在孤立系统中,体系与环境没有能量交换,体系总是自发的向混乱度增大的方向变化,使整个系统的熵值越来越大。
熵越大,表征的随机变量的不确定度越大,其含有的信息量越多。
随机变量\\(X\\)可能的取值为\\(\\left\\ x_1,x_2 ,\\dots ,x_n \\right\\\\),其概率分布为\\(P\\left( X=x_i \\right) =p_i\\),\\(i = 1, 2, \\dots, n\\),则随机变量\\(X\\)的熵定义为\\(H(X)\\):
2.联合熵(Joint Entropy )
联合熵,就是度量一个联合分布的随机系统的不确定度。分布为\\(P(x,y)\\)的一对随机变量\\((X,Y)\\),其联合熵定义为:
联合熵的物理意义,是观察一个多随机变量的随机系统获得的信息量,是对二维随机变量\\((X,Y)\\)不确定性的度量。
3.条件熵(Conditional Entropy)
\\(Y\\)的条件熵是指『在随机变量\\(X\\)发生的前提下,随机变量\\(Y\\)发生新带来的熵』,用\\(H(Y | X)\\)表示:
条件熵的物理意义,在得知某一确定信息的基础上获取另外一个信息时所获得的信息量,用来衡量在已知随机变量的\\(X\\)条件下,随机变量\\(Y\\)的不确定性。
4.相对熵(Kullback–Leibler divergence)
相对熵在信息论中用来描述两个概率分布差异的熵,叫作KL散度、相对熵、互熵、交叉熵、信息增益。对于一个离散随机变量的两个概率分布\\(P\\)和\\(Q\\)来说,它们的相对熵定义为:
注意:公式中\\(P\\)表示真实分布,\\(Q\\)表示\\(P\\)的拟合分布,\\(D(P||Q) ≠ D(Q||P)\\)
相对熵表示当用概率分布\\(Q\\)来拟合真实分布\\(P\\)时,产生的信息损耗。
5.互信息(Mutual Information)
互信息是信息论里一种有用的信息度量方式,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性。
互信息的计算方式定义如下:
6.常用等式(useful equations)
1)条件熵、联合熵与熵之间的关系
推导过程如下:
\\(\\beginarrayl H(X, Y)-H(X) \\\\ =-\\sum_x, y p(x, y) \\log p(x, y)+\\sum_x p(x) \\log p(x) \\\\ =-\\sum_x, y p(x, y) \\log p(x, y)+\\sum_x\\left(\\sum_y p(x, y)\\right) \\log p(x) \\\\ =-\\sum_x, y p(x, y) \\log p(x, y)+\\sum_x, y p(x, y) \\log p(x) \\\\ =-\\sum_x, y p(x, y) \\log \\fracp(x, y)p(x) \\\\ =-\\sum_x, y p(x, y) \\log p(y \\mid x) \\endarray\\)
-
第二行推到第三行的依据是边缘分布\\(P(x)\\)等于联合分布\\(P(x,y)\\)的和;
-
第三行推到第四行的依据是把公因子\\(logP(x)\\)乘进去,然后把\\(x,y\\)写在一起;
-
第四行推到第五行的依据是:因为两个\\(\\sigma\\)都有\\(P(x,y)\\),故提取公因子\\(P(x,y)\\)放到外边,然后把里边的\\(-(log P(x,y) - log P(x))\\)写成\\(- log (P(x,y) / P(x) )\\);
-
第五行推到第六行的依据是:\\(P(x,y) = P(x) * P(y|x)\\),故\\(P(x,y) / P(x) = P(y|x)\\)。
2)条件熵、联合熵与互信息之间的关系
推导过程如下:
\\(\\beginarrayl H(Y)-I(X, Y) \\\\ =-\\sum_y p(y) \\log p(y)-\\sum_x, y p(x, y) \\log \\fracp(x, y)p(x) p(y) \\\\ =-\\sum_y\\left(\\sum_x p(x, y)\\right) \\log p(y)-\\sum_x, y p(x, y) \\log \\fracp(x, y)p(x) p(y) \\\\ =-\\sum_x, y p(x, y) \\log p(y)-\\sum_x, y p(x, y) \\log \\fracp(x, y)p(x) p(y) \\\\ =-\\sum_x, y p(x, y) \\log \\fracp(x, y)p(x) \\\\ =-\\sum_x, y p(x, y) \\log p(y \\mid x) \\\\ =H(Y \\mid X) \\endarray\\)
3)互信息的定义
由上方的两个公式
-
\\(H(Y|X) = H(Y) - I(X,Y)\\)
-
\\(H(Y|X) = H(X,Y) - H(X)\\)
可以推出\\(I(X,Y)= H(X) + H(Y) - H(X,Y)\\),此结论被多数文献作为互信息的定义
7.最大熵模型(Max Entropy Model)
机器学习领域,概率模型学习过程中有一个最大熵原理,即学习概率模型时,在所有可能的概率分布中,熵最大的模型是最好的模型。
通常用约束条件来确定模型的集合,所以最大熵模型原理也可以表述为:在满足约束条件的模型集合中,选取熵最大的模型。
前面我们知道,若随机变量\\(X\\)的概率分布是\\(P\\left( x_i \\right)\\),其熵的定义如下:
熵满足下列不等式:\\(0\\leq H\\left( X \\right) \\leq log\\left| X \\right|\\)
- \\(|X|\\)是\\(X\\)的取值个数
- 当且仅当\\(X\\)的分布是均匀分布时,右边的等号成立;也就是说,当\\(X\\)服从均匀分布时,熵最大。
直观地看,最大熵原理认为:
- 要选择概率模型,首先必须满足已有的事实,即约束条件;
- 在没有更多信息的情况下,那些不确定的部分都是『等可能的』。最大熵原理通过熵的最大化来表示等可能性;『等可能』不易操作,而熵则是一个可优化的指标。
ShowMeAI相关文章推荐
ShowMeAI系列教程推荐
以上是关于图解AI数学基础 | 信息论的主要内容,如果未能解决你的问题,请参考以下文章