交叉熵

一、信息量

交叉熵是信息论中的概念,了解信息熵的本质,需要先了解信息

在生活中, 我们常常听到说“xxxx事情信息量很大”。从言语中我们能分析出这件事情可能是爆炸性的新闻。接下来我们来分析一下:

事件A: 新发布的iphone一台 7000 人名币
事件B: 新发布的iphone不要钱,免费送

你可能会感叹 事件B 的信息量有点大, 的确如此,因为事件B发生的可能性很小,我们要确认事件B,需要再去获取其他信息作为填充。 而事件A发生的概率很大,基本上不用再去获取其他信息就可以确认。

所以一条消息的信息量是和事件发生的概率相关。

image

x0 : 代表事件
P(x0) : 代表x0事件发生的概率
I(x0) : 代表x0所包含的信息量

二、熵

上面描述的是单个事件一个可能所包含的信息量, 接下来,我们来描述一下单个事件所有可能所产生的信息量。

例如: 明天的天气,可能是雨天、晴天、雾天 等等

image

H(X) 表示的就是熵

三、相对熵(KL散度)

用于衡量对于同一个随机变量x的两个单独的概率分布P(x)和Q(x)之间的差异。对比同一个事件的两个分布P(x) 和 Q(x)的差异。

==先复习一下 对数相加减法==

image

相对熵的公式如下

image

KL 越小模型越接近

四、交叉熵

交叉熵,实际上是相对熵变形提取

image

训练中label是固定,所以-H(P(x))是常量,所以如果要使KL最,我们只需要优化后半部分


image

==交叉熵广泛用于逻辑回归的Sigmoid和Softmax函数中作为损失函数使==

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 信息论交叉熵是信息论中的一个概念,要想了解交叉熵的本质,需要先从最基本的概念讲起。 1 信息量首先是信息量。假设我...
    水球喵阅读 3,269评论 0 0
  • GitHub简书CSDN 该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵 1、信息熵 (informati...
    MaosongRan阅读 6,889评论 0 0
  • 1. 交叉熵定义 交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分...
    原来是酱紫呀阅读 4,753评论 0 0
  •   交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分...
    xingzai阅读 9,761评论 0 17
  • 逻辑清晰,层次分明,线条流畅,中心突出,色彩艳丽,太棒了,小图标运用的也很棒,点赞! 中心图与内容相关联,不错。二...
    丹菡阅读 5,538评论 0 2