信息论-熵
Posted shensobaolibin
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了信息论-熵相关的知识,希望对你有一定的参考价值。
定义
熵是从整个集合的统计特性所考虑的
表示信源输出前信源的平均不确定性
表示信源输出后每个符号携带的平均信息
I(p)只能表示信源中每个符号的信息量,不能作为信源总体的信息量
公式:
H(x) = E(log 1/p(ai))
= -∑p(ai) log p(ai)
自信息
发出的消息所携带的信息量, 用I(x)计算
在消息a中每个符号携带的平均信息量 自信息/符号个数
自信息不是熵
联合熵与条件熵
对于信源来说∑p(ai) = 1
对于联合熵来说∑∑p(aiaj) = 1
p(aiaj) = p(ai|aj) * p(aj)
若信源的输出与上一个输出的字符有关系 上一个字符为aj的话,这一个为ai个概率为 p(ai|aj)
联合熵为H(xixj) = -∑∑p(aiaj) log p(aiaj) 用于表示信源输出长度为2的平均不确定性
条件熵为H(xi|xj) = -∑∑p(ai|aj) p(aj)log p(ai|aj)=-∑∑p(aiaj) log p(ai|aj) 随机序列xixj的联合符号集上的条件自信息量的数学期望
用公式可以推出
熵的意义
H(X):表示信源中每个符号的平均信息量(信源熵)
H(Y):表示信宿中每个符号的平均信息量(信宿熵)
H(X|Y):表示在输出端接收到Y的全部符号后,发送端X尚存的平均不确定性。这个对X尚存的不确定性是由于干扰引起的。信道疑义度(损失熵,含糊度)
H(Y|X):表示在已知X的全部符号后,对于输出Y尚存的平均不确定性。信道散布度(噪声熵)
H(XY):表示整个信息传输系统的平均不确定性(联合熵)
一些性质
若原信源 X 中有一个符号分割成了m个元素(符号),这m个元素的概率之和等于原元素的概率,而其他符号的概率不变,则新信源的熵增加
熵的增加量等于由分割而产生的不确定性量
以上是关于信息论-熵的主要内容,如果未能解决你的问题,请参考以下文章