Entropy

Entropy(熵)

一个信息源发出多种信号,如果某个信号概率大,那么它后面出现的机会也大,不确定性会小。反之就会机会小,不确定性就大,即不确定性函数 f 是概率 p 的单调递减函数。

那如果有两个信号A、B,他们产生的不确定性应该是各自不确定性的和,即 f(P_{A},P_{B}) = f(P_{A}) + f(P_{B}) ,它们具有可加性。

那么不确定性 f 的函数体要满足几个条件:1.单调递减 2.具有可加性 3.f(p)\geq0(p\geq0) 所以很容易想到对数函数,即 f(P) = -logP

%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np

p = np.arange(0.4, 0.99, 0.01)
f = [-1 * np.log2(a) for a in p]
plt.plot(p,f)
image.png

那么如果考虑这个信息源的不确定性,即是考虑所有信号产生不确定性的统计平均值。 若信息源产生的各信息 1..i..n 的不确定性有 n 种取值:U_{1}..U_{i}..U_{n},对应的概率为P_{1}..P_{i}..P_{n},并且它们彼此独立。 信息的不确定性应该为 -logP_{i} 的统计平均值(期望)(E),这就是信息熵(Information Entropy),即 H(U) = E[-logP_{i}] = -\sum_{i=1}^{n} p_{i}logp_{i}
因为不确定性是抽象出来的,并非实际值,所以对于对数的底数的取值也并无要求,当我们以2为底的时候,单位为bit;底是e的时候,单位是nat。所以这里用2为底。

同时,有 0\leq H(U) \leq logn,证明如下(拉格朗日乘子法):

目标函数:H(x)=H[p(1),p(2),..,p(n)]=-[p(1)logp(1)+p(2)logp(2)+..+p(n)logp(n)]

因为 p(1)+p(2)+..p(n)=1

设置约束条件 :G(x)=g[p(1),p(2),..,p(n),\lambda]=\lambda*[p(1)+p(2)+..+p(n)-1]=0

设置拉格朗日函数:
L[p(1),p(2),..,p(n),\lambda]=H(x)+G(x)
p(1),p(2),..,p(n),\lambda 依次求偏导,令偏导为0,有:
\frac{\partial L}{\partial p(1)}=\lambda-log[e*p(1)]=0
\frac{\partial L}{\partial p(2)}=\lambda-log[e*p(1)]=0
...
\frac{\partial L}{\partial p(n)}=\lambda-log[e*p(1)]=0
\frac{\partial L}{\partial \lambda}=p(1)+p(2)+..+p(n)-1=0

联立得 p(1)=p(2)=..=p(n)

p(1)=p(2)=..=p(n)=\frac{1}{n}

H(\frac{1}{n},\frac{1}{n},..,\frac{1}{n})=-(\frac{1}{n}log\frac{1}{n}+\frac{1}{n}log\frac{1}{n}+..+\frac{1}{n}log\frac{1}{n})=logn

当然最简单的单符号信号源仅取 0 和 1 两个元素,其概率为 P 和 1 - P,该信源的熵为下面所示

p = np.arange(0.001, 1, 0.001)
H = [-1 * a * np.log2(a) - (1 - a) * np.log2(1 - a) for a in p]
plt.gca().set_ylim([0,1])
plt.gca().set_xlim([0,1])
plt.plot(p,H)
image.png

Joint entropy(联合熵)

当我们从一维随机变量分布推广到多维随机变量分布,则其联合熵(Joint entropy)为:
H(X,Y)=-\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)logp(x,y)= -\sum_{i=1}^{n} \sum_{j=1}^{m}p(x_{i},y_{j})logp(x_{i},y_{j})

Conditional entropy(条件熵)

条件熵 H(Y|X) 表示在已知随机变量 X 的条件下随机变量 Y的不确定性
条件熵 H(Y|X) (X \in \mathcal{X},Y \in \mathcal{Y}) 定义为在 X 给定条件下 Y 的条件概率分布的熵对 X 的数学期望:
H(Y|X) \equiv \sum_{x\in\mathcal{X}}p(x)H(Y|X=x)
= -\sum_{x\in\mathcal{X}}p(x)\sum_{y\in\mathcal{Y}}p(y|x)logp(y|x)
= -\sum_{x\in\mathcal{X}}\sum_{y\in\mathcal{Y}}p(x,y)logp(y|x)
= -\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)logp(y|x)
= -\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)log\frac{p(x,y)}{p(x)}
= \sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)log\frac{p(x)}{p(x,y)}
同时,条件熵 H(Y|X) = H(X,Y) - H(X) ,证明如下:

H(Y,X) = -\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)logp(x,y)
= -\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)log(p(y|x)p(x))
= -\sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)logp(y|x) - \sum_{x\in\mathcal{X},y\in\mathcal{Y}}p(x,y)logp(x)
= H(Y|X)-\sum_{x\in\mathcal{X}}\sum_{y\in\mathcal{Y}}p(x,y)logp(x)
= H(Y|X)-\sum_{x\in\mathcal{X}}logp(x)\sum_{y\in\mathcal{Y}}p(x,y)
= H(Y|X)-\sum_{x\in\mathcal{X}}logp(x)p(x)
= H(Y|X)-\sum_{x\in\mathcal{X}}p(x)logp(x)
= H(Y|X)+H(X)

即为上式所证

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,185评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,652评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,524评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,339评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,387评论 6 391
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,287评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,130评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,985评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,420评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,617评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,779评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,477评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,088评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,716评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,857评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,876评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,700评论 2 354

推荐阅读更多精彩内容

  • 转载自 https://mp.weixin.qq.com/s/OXXtPoBrCADbwxVyEbfbYg 25....
    _龙雀阅读 1,674评论 0 0
  • Welcome To My Blog 最大熵模型(Maximum Entropy Model)属于对数线性模型,...
    LittleSasuke阅读 7,227评论 1 3
  • 羽文如月 当满心美好的憧憬变为虚无,当一腔热情换来冷漠,当十足的付出却收获了了……你心伤了吧,你悲观了吧,你厌世了...
    月满钟秀阅读 327评论 0 3
  • 格列佛利用待在岛上的最后三天,与近代的魂灵见了面。这一见,真是“相见恨晚”。真真假假,一下就清楚了,犹如一...
    童谣桐瑶阅读 191评论 0 0
  • 今天大风降温,穿了毛衣,吃了羊蝎子,香喷喷。亲爱的妈咪做的,爱你,我的妈咪,虽然我任性,暴躁,不知好歹,可你还是一...
    风习习77阅读 110评论 0 0