信息论与编码| 自信息与信息熵
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了信息论与编码| 自信息与信息熵相关的知识,希望对你有一定的参考价值。
自信息
信息量
如何考察或计算信源输出的消息(或者符号)的信息量?
- 信源的信息实质:不确定性(信源输出的是消息,消息的内涵是信息。信源输出一个符号,我们认为发生一个事件)。
- 数学上我们用概率(或概率密度)来表征事件不确定性的大小。
1.信息量的大小与不确定性的消除多少有关;
收到某消息获得的信息量=不确定性的减少量=(收到该消息前关于某事件发生的不确定性)-(收到此消息后关于某事件发生的不确定性)
2.信道无噪声,收到某消息获得的信息量=收到该消息前关于某事件发生的不确定性=信源输出的某消息中所含的信息量。
3.概率小→不确定性大;概率大→不确定性小。
因此,某事件发生所含的信息量应该是该事件发生的先验概率的函数。
自信息定义
事件集合 中的事件 的自信息定义为 或记为:
注意 1 : 要求 I(x) 非负. 所以对数的底数必须大于 1 .
- 底数为 2 , 单位为比特 (bit) ;
- 底数为 \\mathrme , 单位为奈特 (Nat);
- 底数为 10 , 单位为笛特(Det)。
1 bit =0.693 Nat =0.301 Det
注意2: I(x) 是随机变量.
自信息的含义:
- 在事件发生前, 自信息表示事件发生的不确定性。
- 在事件发生后, 自信息表示事件所包含的信息量, 是提供给信宿的信息量, 也是解除这种不确定性所需要的信息量
联合自信息
联合事件集合 中的事件 《信息与编码》考试复习笔记6----第六章连续信源熵和信道容量(考点在连续信道容量)
视频编解码·学习笔记7. 熵编码算法:基础知识 & 哈夫曼编码