信息论-熵

Posted shensobaolibin

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了信息论-熵相关的知识,希望对你有一定的参考价值。

定义

  熵是从整个集合的统计特性所考虑的

  表示信源输出前信源的平均不确定性

  表示信源输出后每个符号携带的平均信息

 

  I(p)只能表示信源中每个符号的信息量,不能作为信源总体的信息量

公式:

  H(x) = E(log 1/p(ai))

       = -∑p(ai) log p(ai)

 

自信息

  发出的消息所携带的信息量, 用I(x)计算

  在消息a中每个符号携带的平均信息量 自信息/符号个数

  自信息不是熵  

 

联合熵与条件熵

  对于信源来说∑p(ai) = 1

  对于联合熵来说∑∑p(aiaj) = 1

  p(aiaj) = p(ai|aj) * p(aj)

   若信源的输出与上一个输出的字符有关系 上一个字符为aj的话,这一个为ai个概率为 p(ai|aj)

  联合熵为H(xixj)  = -∑∑p(aiaj) log p(aiaj) 用于表示信源输出长度为2的平均不确定性

  条件熵为H(xi|xj)  = -∑∑p(ai|aj) p(aj)log p(ai|aj)=-∑∑p(aiaj) log p(ai|aj) 随机序列xixj的联合符号集上的条件自信息量的数学期望

 

  用公式可以推出

       技术分享图片

熵的意义

  H(X):表示信源中每个符号的平均信息量(信源熵)

  H(Y):表示信宿中每个符号的平均信息量(信宿熵)

  H(X|Y):表示在输出端接收到Y的全部符号后,发送端X尚存的平均不确定性。这个对X尚存的不确定性是由于干扰引起的。信道疑义度(损失熵,含糊度)

  H(Y|X):表示在已知X的全部符号后,对于输出Y尚存的平均不确定性。信道散布度(噪声熵)

  H(XY):表示整个信息传输系统的平均不确定性(联合熵)

 

 一些性质

  若原信源 X 中有一个符号分割成了m个元素(符号),这m个元素的概率之和等于原元素的概率,而其他符号的概率不变,则新信源的熵增加

  熵的增加量等于由分割而产生的不确定性量

  

 

以上是关于信息论-熵的主要内容,如果未能解决你的问题,请参考以下文章

信息论中的各种熵

信息熵

AI机器学习-信息熵,条件熵,信息增益

自信息信息熵和相对熵

信息量信息熵交叉熵相对熵

深度学习交叉熵详解