深度学习策略之损失函数(Loss Function OR Cost Function)

image.png

一、损失函数是什么,有什么用?

损失函数,英文Loss Function 或者 Cost Function,个人理解,他是模型和算法之间的桥梁,把一个监督学习问题转化成最优化问题的桥梁。
当我们使用一个模型去“模仿”或者“探索”一个对象的时候,损失函数就是一种描述模型和模仿对象之间偏差的标准,建立这个标准后,我们要做的事情就是要尽量缩小这种偏差,使得模型具备“替换”对象的能力。

  • 流程:了解对象---选择模型---监督学习问题---经验风险or结构风险(涉及到损失函数)---风险最小化---最优化问题---得到模型参数
    李航老师三部曲:模型(model)--策略(strategy)--算法(algorithm)

再附上李航老师《统计学习方法》的说明:


image.png

image.png

image.png

image.png

二、有哪些损失函数?

wiki上的介绍

image.png

image.png

三、怎么选择损失函数?

参考《TensorFlow 实战Google深度学习框架》第四章“经典损失函数”,主要分为多分类问题和回归问题:

  1. 多分类问题:如何判断一个输出向量和期望的向量有多接近?交叉熵(cross entropy),刻画了通过概率分布q来表达概率分布p的困难程度。为什么要用cross entropy,而不用mean squared。
image.png
# mean squared
loss = tf.reduce_mean(tf.square(y_true - y_prediction))

# cross entropy
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels = y_true, logits = y_prediction))

详细记录下cross entropy,再细分四种

  • softmax_cross_entropy_with_logits
    只适合单目标的二分类或者多分类问题
  • sparse_softmax_cross_entropy_with_logits
    softmax_cross_entropy_with_logits的易用版本,label值都是从0编码的整数
  • sigmoid_cross_entropy_with_logits
    多目标,例如判断图片中是否包含10种动物,label值可以包含多个1或0个1
  • weighted_sigmoid_cross_entropy_with_logits
    sigmoid_cross_entropy_with_logits的拓展版,多支持一个pos_weight参数,目的是可以增加或者减小正样本在算Cross Entropy时的Loss
  1. 回归问题:最常用的损失函数是均方差(MES, Mean square error)


    image.png
  1. 自定义损失函数 tf.greater(待再次想想)

三、正则化项(regularization)L1和L2

正则化,统计学领域的人喊她惩罚项,数学界会喊她范数。整体来说本质不变,源于数学。

第一点李航老师的《统计学习方法》已经明确“为什么需要”正则化(regularization)了。简单点说就是为了防止过拟合,把描述模型复杂度的正则化项加入到经验风险最小化,得到结构风险最小化的策略。

问:正则化项的是如何描述模型的复杂度呢?
答:通过对权重参数w求绝对值之和或平方和,
问:不禁又问,w变大怎么影响模型的复杂度呢?
答:因为若权重参数w很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什么影响,专业一点的说法是『抗扰动能力强』

严重参考:“机器学习中正则化项L1和L2的直观理解”

  1. L1正则化(L1范数):权值向量w中各个元素的绝对值之和


    image.png
image.png
  1. L2正则化(L2范数):权值向量w中各个元素的平方和


    image.png
image.png

问:L1比L2更容易让参数变得稀疏?why?
答:L1有更多突出的角,而这些角上很多权值w取值为0,另外角更突出,所以更加容易与经验风险最小化部分产生交叉求得解。

四、code

# loss = tf.reduce_mean(tf.square(y - y_pred))

# 结构风险=经验风险+正则化,经验风险使用交叉熵,正则化使用L2。
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels = y, logits = finalOutput))\
#        + tf.contrib.layers.l2_regularizer(0.05)(W1) + tf.contrib.layers.l2_regularizer(0.05)(W2) +  tf.contrib.layers.l2_regularizer(0.05)(W3)  

五、TensorFlow直接支持的cross entropy

image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,816评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,729评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,300评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,780评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,890评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,084评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,151评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,912评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,355评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,666评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,809评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,504评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,150评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,121评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,628评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,724评论 2 351

推荐阅读更多精彩内容