信息量,熵,KL散度,交叉熵

REFER:
陈远. 信息论与编码(第三版). 电子工业出版社. p11
徐彬. 实战深度学习算法. 电子工业出版社. p21
一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉

信息量

如何度量信息?自信息量(self-information)。
自信息量:一个随机事件发生某一结果后带来的信息量称为自信息量。
对于事件x,我们用I(x)来表示事件的信息量,那么信息量应该满足以下的要求:

  1. 概率越小,信息量越大。当越不可能的事件发生了,我们获取到的信息量就越大;越可能发生的事件发生了,我们获取到的信息量就越小;当事件是确定,信息量为0,即p(x)=1时,I(x)=0。上面的话理解起来非常直观,例如小王老婆生了孩子但不是小王的,这件事概率很小,但发生了以后信息量就很大,引人浮想联翩。
    p(x_i) < p(y_i), \quad I(x_i) > I(y_i)
  2. 信息量应该是可加的。两件相互独立的事情,他们同时发生了,获得的信息量是他们分别信息量之和。
    I(x_iy_i) = I(x_i)+I(y_i)
  3. 信息量是非负的。
    I(x_i) \geq 0

基于上述的要求,就选择了对数的形式来定义信息量:
I(x_i) = -\log(p(x_i))

熵(entropy),又称平均信息量,定义为各离散消息的自信息量的数学期望(概率加权的平均值)。
熵用来表达随机变量的不确定性,熵越大,随机变量的不确定性越大。

H(X) = E[I(x_i)] = E[\log \frac{1}{p(x_i)}]=-\sum_{i=1}^{n}p(x_i)\log p(x_i)

比如,一个事件存在两种可能性,当两个可能性相等时,不确定性最大,因为我们没有先验的知识去判断哪一个的概率更大,哪怕是一点点,所以熵也最大。

简单写代码验证一下:

import numpy as np
import matplotlib.pyplot as plt

self_info = lambda p: - np.log(p)
p1 = np.arange(0.1, 1, 0.1)
p2 = 1-p1
h = p1 * self_info(p1) + p2 * self_info(p2)
plt.plot(p1, h)
plt.show()

相对熵(KL散度)

相对熵(relative entropy),又叫KL 散度(Kullback-Leibler divergence)。
如果我们对于同一个随机变量 x 有两个单独的概率分布 P(x) 和 Q(x),我们可以使用相对熵来衡量这两个分布的差异。或者更准确地说,对于分布P(x),其他的分布Q(x)和它的差异。即如果用P来描述目标问题,而不是用Q来描述目标问题,得到的信息增量。

D_{KL}(p||q) = \sum_{i=1}^{n}p(x_i)\log(\frac{p(x_i)}{q(x_i)})

在机器学习中,P往往用来表示样本的真实分布,比如样本有3个类别,当前样本点属于类别1,用onehot表示为[1,0,0];Q用来表示模型所预测的分布,比如[0.7,0.2,0.1]。
直观的理解就是如果用P来描述样本,那么就非常完美。而用Q来描述样本,虽然可以大致描述,但是不是那么的完美,信息量不足,需要额外的一些信息增量才能达到和P一样完美的描述。如果我们的Q通过反复训练,也能完美的描述样本,那么就不再需要额外的信息增量,Q等价于P。

对于已知的分布P,KL散度为什么能计算别的分布Q和它的差异呢?我们观察KL散度的表达式,它是一个关于P的期望的形式,我们去掉这个外壳:
\log(\frac{p(x_i)}{q(x_i)})
因为P是已知的,p(xi)是一个常数:
0 \leq q(x_i) \leq 1 \\ \frac{p(x_i)}{q(x_i)}

交叉熵

交叉熵表示为:
H(p,q)=-\sum_{i=1}^{n}p(x_i)log(q(x_i))
对KL散度公式进行一下变换:
D_{KL}(p||q)=\sum_{i=1}^{n}p(x_i)[\log(p(x_i))-\log(q(x_i))] \\ =\sum_{i=1}^{n}p(x_i)\log(p(x_i))-\sum_{i=1}^{n}p(x_i)\log(q(x_i)) \\ =-H(p(x))+[-\sum_{i=1}^{n}p(x_i)\log(q(x_i))]

在机器学习中,我们需要评估label和predict之间的差距,使用KL散度刚刚好,由于KL散度中的前一部分不变,故在优化过程中,只需要关注交叉熵就可以了。所以一般在机器学习中直接用用交叉熵做loss,评估模型。

交叉熵和KL散度都可以刻画两个概率分布的差异,交叉熵越小,两个概率分布约相似,但是他们不是严格意义上的距离,因为两者都不具备对称性:

D_{KL}(p||q) \neq D_{KL}(q||p) \\ H(p,q) \neq H(q,p)

关于底数

出于简化推导,优化数值计算效率的考虑,对数的底可以因地制宜地选择。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,294评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,780评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,001评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,593评论 1 289
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,687评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,679评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,667评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,426评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,872评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,180评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,346评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,019评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,658评论 3 323
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,268评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,495评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,275评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,207评论 2 352

推荐阅读更多精彩内容