关于entropy的思考

计算a, b的entropy

import numpy as np
import scipy.stats as stats

a = [0.8, 0.15, 0.05]
b = [0.5, 0.3, 0.2]
a = np.asarray(a)
b = np.asarray(b)
print(stats.entropy(a))
print(stats.entropy(b))

结果是:

0.6128694524619495
1.0296530140645737

说明b的entropy更高。

再次计算

import numpy as np
import scipy.stats as stats

a = [0.1, 0.1, 0.9, 0.8, 0.1]
b = [0.9, 0.9, 0.8, 0.9, 0.8]
c = [0.1, 0.1, 0.2, 0.1, 0.1]
a = np.asarray(a)
b = np.asarray(b)
print(stats.entropy(a))
print(stats.entropy(b))
print(stats.entropy(c))

结果是:

1.1752045970807579
1.6078017841829741
1.5607104090414068

问题:

  1. 方差和entropy成反比?
  2. entropy和KL divergence是什么关系?
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。