机器学习系列5:熵的推导和计算

一、信息熵

熵 (entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy)信息熵 (information entropy)。本文只讨论信息熵。首先,我们先来理解一下信息这个概念。信息是一个很抽象的概念,百度百科将它定义为:指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。那信息可以被量化么?可以的!香农提出的“信息熵”概念解决了这一问题。

一条信息的信息量和它的不确定性有着直接的关系。比如说,我们需要搞清楚一件非常非常不确定的事,或者是我们一无所知的事,就需要了解大量的信息。相反,如果我们对某件事已经有了较多的了解,我们就不需要太多的信息就能把它搞清楚。所以,从这个角度,我们可以认为,信息量的度量就等于不确定性的多少。

现在假设一个发送者想传送一个随机变量的值给接收者。那么在这个过程中,他们传输的平均信息量可以通过求 I(x)=−logp(x)关于概率分布 p(x) 的期望得到,即:H(X)=-\sum_xp(x)logp(x)=-\sum_{i=1}^np(x_i)logp(x_i)
其中负号是用来保证信息量是正数或者零。而 log函数基的选择是任意的(信息论中基常常选择为2,因此信息的单位为比特bits;而机器学习中基常常选择为自然常数,因此单位常常被称为奈特nats)

H(X) 就被称为随机变量 x的熵,它是表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。从公式可得,随机变量的取值个数越多,状态数也就越多,信息熵就越大,混乱程度就越大。当随机分布为均匀分布时,熵最大,且 0≤H(X)≤logn。稍后将证明。

对信息熵公式的理解:

  • 熵只依赖于随机变量的分布,与随机变量取值无关,所以也可以将 X的熵记作 H(p);令0log0=0(因为某个取值概率可能为0)
  • 信息量是大于等于0,肯定不可能是负的: H(X)\ge0
  • 观察两个事件同时发生时获得的信息量应该等于观察到事件各自发生时获得的信息之和:H(X_1,X_2)=H(X_1)+H(X_2)
  • 熵是信息量的数学期望

那么这些定义有着什么样的性质呢?考虑一个随机变量 x。这个随机变量有4种可能的状态,每个状态都是等可能的。为了把 x 的值传给接收者,我们需要传输2比特的消息。H(X)=−4×(1/4)log2(1/4)=2 bits。现在考虑一个具有4种可能的状态 {a,b,c,d} 的随机变量,每个状态各自的概率为 (1/2,1/4,1/8,1/8)。这种情形下的熵为:H(X)=-\frac{1}{2}log_2\frac{1}{2}-\frac{1}{4}log_2\frac{1}{4}-\frac{1}{8}log_2\frac{1}{8}-\frac{1}{8}log_2\frac{1}{8}=1.75bits

证明0≤H(X)≤logn

利用拉格朗日乘数法求最大值
目标函数H(p)=-p(x_1)logp(x_1)-p(x_2)logp(x_2)-\cdots--p(x_n)logp(x_n)
限定条件:p(x_1)+p(x_2)+\cdots+p(x_n)=1
构建拉格朗日函数:L(p(x_1), p(x_2), \ldots p(x_n), \lambda)=-p(x_1) \log p(x_1)-\ldots-p(x_n) \log p(x_n)+\lambda(p(x_1)+\ldots p(x_n)-1)
分别对p(x_1),p(x_2),\ldots,p(x_n)\lambda求偏导:\lambda-logp(x_1)=0 \vdots \lambda-logp(x_n)=0 p(x_1)+p(x_2)+\ldots+p(x_n)-1=0
求得:p(x_1)=p(x_2)=\ldots=p(x_n)=\frac{1}{n}
代入目标函数:\begin{aligned} f\left(\frac{1}{n}, \frac{1}{n}, \ldots, \frac{1}{n}\right)=&-\left(\frac{1}{n} \log \frac{1}{n}+\ldots+\frac{1}{n} \log \frac{1}{n}\right) \\ &=-\log \left(\frac{1}{n}\right) \\ &=\log n \end{aligned}
得证0 \leqslant H(p) \leqslant \log n

二、联和熵

对服从联合分布为P(x,y)的一对离散随机变量(X,Y),其联合熵H(X,Y)可表示为H(X, Y)=-\sum_{x \in X} \sum_{y \in Y} P(x, y) \log P(x, y)

三、条件熵

条件熵 H(Y|X)表示在已知随机变量 X 的条件下随机变量 Y 的不确定性。条件熵 H(Y|X)定义为 X 给定条件下 Y 的条件概率分布的熵对 X 的数学期望:\begin{aligned} H(Y | X) &=\sum_{x} p(x) H(Y | X=x) \\ &=-\sum_{x} p(x) \sum_{y} p(y | x) \log p(y | x) \\ &=-\sum_{x} \sum_{y} p(x, y) \log p(y | x) \\ &=-\sum_{x, y} p(x, y) \log p(y | x) \end{aligned}
条件熵 H(Y|X)相当于联合熵 H(X,Y)减去单独的熵 H(X),即H(Y|X)=H(X,Y)−H(X)
证明如下:\begin{aligned} H(X, Y) &=-\sum_{x, y} p(x, y) \log p(x, y) \\ &=-\sum_{x, y} p(x, y) \log (p(y | x) p(x)) \\ &=-\sum_{x, y} p(x, y) \log p(y | x)-\sum_{x, y} p(x, y) \log p(x) \end{aligned} \begin{array}{l}{=H(Y | X)-\sum_{x, y} p(x, y) \operatorname{logp}(x)} \\ {=H(Y | X)-\sum_{x} \sum_{y} p(x, y) \log p(x)} \\ {=H(Y | X)-\sum_{x} \log p(x) \sum_{y} p(x, y)} \\ {=H(Y | X)-\sum_{x}^{x}(\log p(x)) p(x)} \\ {=H(Y | X)-\sum_{x}^{x} p(x) \log (x)} \\ {=H(Y | X)+H(X)}\end{array}举个例子,比如环境温度是低还是高,和我穿短袖还是外套这两个事件可以组成联合概率分布 H(X,Y),因为两个事件加起来的信息量肯定是大于单一事件的信息量的。假设 H(X)对应着今天环境温度的信息量,由于今天环境温度和今天我穿什么衣服这两个事件并不是独立分布的,所以在已知今天环境温度的情况下,我穿什么衣服的信息量或者说不确定性是被减少了。当已知 H(X) 这个信息量的时候,H(X,Y) 剩下的信息量就是条件熵:H(Y|X)=H(X,Y)−H(X)

因此,可以这样理解,描述 X 和 Y 所需的信息是描述 X 自己所需的信息,加上给定 X的条件下具体化 Y 所需的额外信息。

四、互信息

  • 两个随机变量X,Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵
  • 度量两个随机变量的“相关性”
  • 互信息就是随机事件X的不确定性或者说熵H(X),以及在知道随机事件Y条件下的不-确定性(条件熵)的差异I(X, Y)=D(P(X, Y) \| P(X) P(Y)) \begin{array}{c}{I(X, Y)=\sum_{x, y} P(x, y) \log \frac{P(x, y)}{P(x) P(y)}} \\ {I(X, Y)=H(X)-H(X | Y)}\end{array}

推导互信息的定义式

\begin{array}{c}{I(X, Y)=H(X)+H(Y)-H(X, Y)} \\ {=-\sum_{x} P(x) \log P(x)+\left(-\sum_{y} P(y) \log P(y)\right)-\left(-\sum_{x, y} P(x, y) \log P(x, y)\right)} \\ {=\left(-\sum_{x}\left(\sum_{y} P(x, y) \log P(x)\right)+\left(-\sum_{y}\left(\sum_{x} P(x, y) \log P(y)+\sum_{x, y} \log P(x, y)\right.\right.\right.} \\ {=-\sum_{x, y} P(x, y) \log P(x)-\sum_{x, y} P(x, y) \log P(y)+\sum_{x, y} \log P(x, y)} \\ {=\sum_{x, y} P(x, y)(\log P(x, y)-\log P(x)-\log P(y))} \\ {=\sum_{x, y} P(x, y) \log \frac{P(x, y)}{P(x) P(y)}}\end{array}

五、相对熵(Relative entropy),也称KL散度 (Kullback–Leibler divergence)

设 p(x)、q(x) 是 离散随机变量 X 中取值的两个概率分布,则 p 对 q 的相对熵是:D_{K L}(p \| q)=\sum_{x} p(x) \log \frac{p(x)}{q(x)}=E_{p(x)} \log \frac{p(x)}{q(x)}
性质:

  • 相对熵可以度量两个随机变量的“距离”
  • 如果 p(x) 和 q(x) 两个分布相同,那么相对熵等于0
  • DKL(p||q)≠DKL(q||p),相对熵具有不对称性。
  • DKL(p||q)≥0

六、交叉熵

现在有关于样本集的两个概率分布 p(x) 和 q(x),其中 p(x) 为真实分布, q(x)非真实分布。如果用真实分布 p(x) 来衡量识别一个样本所需要编码长度的期望(平均编码长度)为:H(p)=\sum_{x} p(x) \log \frac{1}{p(x)}如果使用非真实分布 q(x) 来表示来自真实分布 p(x) 的平均编码长度,则是:
H(p, q)=\sum_{x} p(x) \log \frac{1}{q(x)}因为用 q(x) 来编码的样本来自于分布 q(x) ,所以 H(p,q) 中的概率是 p(x))。此时就将 H(p,q) 称之为交叉熵。举个例子。考虑一个随机变量 x,真实分布p(x)=(1/2,1/4,1/8,1/8),非真实分布 q(x)=(1/4,1/4,1/4,1/4), 则H(p)=1.75 bits(最短平均码长),交叉熵:H(p, q)=\frac{1}{2} \log _{2} 4+\frac{1}{4} \log _{2} 4+\frac{1}{8} \log _{2} 4+\frac{1}{8} \log _{2} 4=2 b_{i t s}
再化简一下相对熵的公式:D_{K L}(p \| q)=\sum_{*} p(x) \log \frac{p(x)}{q(x)}=\sum_{x} p(x) \log p(x)-p(x) \log q(x)熵的公式:H(p)=-\sum_{x} p(x) \log p(x)交叉熵的公式:H(p, q)=\sum_{x} p(x) \log \frac{1}{q(x)}=-\sum_{x} p(x) \log q(x)
所以有:D_{KL}(p||q)=H(p,q)−H(p)
(当用非真实分布 q(x) 得到的平均码长比真实分布 p(x) 得到的平均码长多出的比特数就是相对熵)

在机器学习中,我们需要评估y和\hat{y} 之间的差距,使用KL散度刚刚好,即D(y||\hat{y} ) (也就是P(x),Q(x)),由于KL散度中的前一部分−H(y)不变,故在优化过程中,只需要关注交叉熵就可以了。所以一般在机器学习中直接用用交叉熵做loss,评估模型。

回顾LR中的交叉熵

L(\theta)=\sum_{i=1}^{m}\left[-y^{i} \log h_{\theta}\left(x^{i}\right)+\left(1-y^{i}\right) \log \left(1-h_{\theta}\left(x^{i}\right)\right)\right]

七、计算给定数据的香农熵

代码参考《机器学习实战》
数据集:链接: https://pan.baidu.com/s/1ZfPyrI3fhgwL1XXi-KqzmA 提取码: qrr8
代码贴上:

import numpy as np
import pandas as pd

def cancShannonEnt(dataSet):
  '''
  :param dataSet: dataSet
  :return: shannonEnt
  '''
  # 计算公式前,注意数据的格式(array)
  numEntries = len(dataSet)   # 获取数据的行数
  labelCounts = { }    # 设置字典数据格式,想要存储的数据格式为:类别:频数
  # 用频数计算概率
  for featVec in dataSet:   # 获取数据集每一行的数据
      currentLabel = featVec[-1]   # 获取特征向量的最后一列
      # 检查字典中key是否存在
      # 如果key不存在
      if currentLabel not in labelCounts.keys():
          # 将当前的标签存于字典中,并将频数置为0
          labelCounts[currentLabel] = 0
      # 如果key存在,在当前的键值上+1
      labelCounts[currentLabel] +=1

  # 数据已准备好,计算熵
  shannonEnt = 0.0          # 初始化信息熵
  for key in labelCounts:   # 遍历出数据中所的类别
      pro = float(labelCounts[key]) / numEntries   
      shannonEnt -= pro * np.math.log(pro, 2)  # 计算信息熵,这里要改一下 改成 np.math.log,否则报错
  return shannonEnt                       # 返回信息熵


def ReadDataset(file):
    f = open(file, encoding='UTF-8')
    dataset = pd.read_csv(f)
    dataset = dataset.ix[:,1:-1]    # 去除 idx 和 labels 这两个标签
    labels = np.array(dataset.columns)  # 获取其他标签,并转化为 numpy
    dataset = np.array(dataset)
    return dataset, labels



if __name__ == "__main__":
    file = 'F:\python_work\李宏毅机器学习任务\entropy\watermelon_3a.csv'
    data, labels = ReadDataset(file)
    print(cancShannonEnt(data))

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,133评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,682评论 3 390
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,784评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,508评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,603评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,607评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,604评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,359评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,805评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,121评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,280评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,959评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,588评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,206评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,442评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,193评论 2 367
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,144评论 2 352

推荐阅读更多精彩内容