信息熵概念
我们知道信息是用来消除不确定性的东西。对于同一句话信息量是不同的。
- 信息量和事件发生的概率有关,事件发生的概率越低,传递信息量越大
- 信息量应当是非负的,必然发生的事件的信息量为零
- 两个事件的信息量可以相加,并且两个独立事件的联合信息量应该是他们各自信息量的和
- 信息量
这个公式是完全满足上面 3 个条件。在信息学用 0 和 1 讨论所有 a 一般采用 2 而不是 10 - 信息熵
- 联合信息量如果两个信息是独立,那么他们信息量是两个单独信息的求和。
信息熵是信息量的数学上的期望。信息熵就是信息量的不确定,不确定度一旦消除我们信息纯度就提高