Class | Content |
---|---|
layout | Blog |
title | 详解机器学习中的损失函数 |
categories | Blog |
description | 机器学习中常见的损失函数以及它们的特点和适用场景 |
keywords | 机器学习 损失函数 风险函数 |
1. 前言
我们知道机器学习的三要素是:方法= 模型+策略+算法, 如何从假设空间中选择最优模型,这涉及到我们需要用什么样的准则进行学习,这就是三要素中的"策略"问题。
在假设空间中选择模型作为决策函数,给定输入,由模型得到输出,而预测的与真实值之间可能不一致,如图1-1 可以看出预测值与真实值存在不一致情况,他们之间的差的绝对值为为绿色线部分, 而损失函数是定义在单个样本上的,算的是一个样本的误差。因此选用损失函数来度量预测误差。
损失函数(loss function)是用来度量模型的预测值与真实值的不一致程度,是一个非负实值函数,损失函数越小,预测正确程度越高,表示为:
损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,可以表示为:
这个公式为结构风险函数,其中,包括前一部分的经验风险项以及后一部分的正则化项,正则化项用于控制模型复杂度,则是用于权衡经验风险和模型复杂度之间的关系.
所以,通过最小化结构风险的策略找到最优模型,求解最优模型就是求解如下最优化问题:当然,除了让结构风险最小化寻找最优模型外,还可以直接最小化经验风险,即
在样本足够的情况下,经验风险最小化可以达到很好的学习效果,但是样本容量有限时,容易产生过拟合现象,所以在才有上面结构风险最小化求最优模型的策略.
2. 区别损失函数\ 风险函数\ 代价函数\ 目标函数
- 损失函数:衡量单个样本预测值与真实值的误差【不赘述】.
- 代价函数:定义在训练集上,是模型关于训练集的平均损失,它也叫经验风险,表示为:
- 风险函数:是指损失函数的期望,又叫期望损失,由于输入和输出是随机变量,那么可求得联合分布,所以可以表示为:
- 目标函数:是一个更为广的概念,比如最小化结构风险求最优模型时,结构化风险函数就是目标函数,而最小化经验风险求最优模型时,经验风险函数就是目标函数,简单地讲,目标函数就是需要优化的函数。
Note:
- a.通常,我们没有细分损失函数和代价函数,经常将两个概念混用。
- b.由于未知,所以风险函数无法计算,经验风险是模型关于训练集的平均损失,根据大数定律,当样本容量趋于无穷时,经验风险趋于风险函数,这也说明了训练集容量越大,选择的最优模型越逼近真实模型。
3. 常见的损失函数
(1) 0-1损失函数(Zero-one Loss)
0-1 损失函数简单易理解,用于分类,如果预测的标签和数据标注的标签一致,那么就为0,否则就为1,当然, 如果认为相等的要求太严苛,可以放宽要求,用于回归中,如果他们的绝对值小于某个阈值,即为0,否则为1,表示为
(2) 平方损失函数(Square Loss)
由于其计算的优越性,所以常常用于回归中, 权重由可以直接初始化,再通过梯度下降不断更新。举例说明,一个线性回归,假设输入有个特征,为了方便表示用表示输入向量为,模型参数为,那么线性回归的模型表示为
那么它的代价函数可以表示为
注意:在这里都使用的目的是方便在后续求导中计算,是正则项前面的参数。
对求导:
由于这是目标函数是一个有最小值的凸函数,所以是沿着梯度的反方向进行更新,表示为
注:权重矩阵最开始可以随机初始,再不断更新.(3) 绝对损失函数(Absolute loss)
绝对值损失函数也经常用于回归中,而用于分类就等价于0-1损失函数,在sklearn中有Huber损失函数,它是平方损失函数和绝对值损失函数的结合,详细介绍请参考 [F2001],比较简单【不再赘述】。(4) 对数损失函数(Log Loss or Cross-entropy Loss)
对数损失函数适用于逻辑回归,那什么是逻辑回归呢?
举例说明:其实就是在线性回归的基础上增加了逻辑函数,那么对于在线性回归基础上加上逻辑函数,则逻辑回归模型可以表示为
即上式表示,给定输入,该实例为类别1的概率,由于逻辑回归是二分类,所以为类别0的概率为
而在逻辑回归中,由于提供了模型的概率估计,所以使用的损失函数为对数损失函数,表示如下:
那么最终的代价函数可以表示为
接下来就从另外一个角度说明,已知逻辑回归模型表示为:
在模型的数学形式确定后,剩下的就是如何去求解模型中的参数,而在已知模型和一定样本的情况下,估计模型的参数,在统计学中常用的是极大似然估计方法。即找到一组参数,使得在这组参数下,样本数据的似然度(概率)最大.
对于逻辑回归模型,假定概率分布服从伯努利分布【0-1分布】,其概率质量函数PMF为:,其中只能取0或者1,那么似然函数可以表示:为
那么对上式取对数,得到对数似然函数为:
则全体样本的代价函数为:
由此可以看出对数损失函数与极大似然估计的对数似然函数本质上是等价的.-
(5) 绞链损失函数(Hinge Loss)
铰链损失函数常用于支持向量机(SVM)中,它名字来源于它的损失函数图像为一个折线图像,如果模型分类正确,损失为0,否则损失为,在SVM损失函数表示为:,
举例说明:在SVM中,最终的支持向量机的分类模型是能最大化分类间隔,又减少错误分类的样本数目,意味着一个好的支持向量机的模型,需要满足以上两个条件:1、最大化分类间隔,2、错误分类的样本数目。如图说明,是预测值,且预测值在-1到1之间,为目标值取值为-1或者1,如果分类正确,,如果分类错误,,是引入的松弛变量,错误分类的样本数目,就回到了损失函数的范畴。
将约束条件变形为
最终SVM的代价函数可以表示为: (6) 指数损失函数(Exponential loss)
指数损失函数,主要应用于 Boosting 算法中
在Adaboost 算法中,经过次迭代后,可以得到 ,表示为:
Adaboost 每次迭代时的目的都是找到最小化下列式子的参数和:
易知,Adaboost应用了指数损失函数
总结
看了很多资料和网页,结合自己的理解写出了这一篇博客,以前只知道有这些损失函数,并没有探讨过损失函数的适用性以及该如何去推导这些公式。继续加油O(∩_∩)O~~
如有问题联系dengwenjun818@gmail.com