逻辑回归
逻辑分布
在介绍逻辑回归之前,我先简单介绍一些logistic分布,在此之前,我只当其为一个简单的函数。
logistic分布
定义: 假设为连续随机变量,服从logistic分布,则的分布函数和密度函数分别如下:
其中为位置参数,为形状参数,值越小,曲线在中心附近增长越快
对应的密度函数和分布函数的图如下:
[图片上传失败...(image-c6edd0-1551349596414)]
分布函数又叫logistic函数,由上图可以看到,它是呈现S型,该曲线以点为中心对称,满足
而标准的logistic函数,即当,时就是我们常用的sigmoid函数,也是常用于神经网络中激活函数
且sigmoid函数的有一个非常好的特点,如下👌
二项逻辑回归(logistic regression)
逻辑回归是在线性模型的基础上增加了sigmoid函数,而Sigmoid函数引入了非线性因素,使得逻辑回归可以轻松处理0/1分类问题。
对于二项逻辑回归模型有如下的条件概率:
二项逻辑回归用于0/1分类问题是使用的损失函数为对数损失函数,即
那么最终的代价函数如下:
在《详述机器学习中的损失函数》有详细举例介绍逻辑回归的推导过程。
NOTE:
二项逻辑回归假设因变量为伯努力分布,而线性模型假设因变量服从高斯分布
模型参数估计
用极大似然估计模型参数👀
对于二项逻辑回归模型,假定概率分布服从伯努利分布【0-1分布】,其概率质量函数PMF为:,其中只能取0或者1,那么二项逻辑回归的似然函数可以表示:为
那么对上式取对数,得到对数似然函数为:
则全体样本的代价函数为:
因此,也可以从因变量为伯努力分布去理解二项逻辑回归的代价函数。那么对的参数估计就变成了对代价函数求极小值,得到的估计值,通常采用牛顿法和梯度下降法求解
多项逻辑回归
二项逻辑回归用于二分类,当然可以对其进行推广,用于多分类,对应的模型叫做多项逻辑回归模型(multi-nominal logistic regression model)
假设变量取值为,那么多项逻辑回归模型如下:
而二项逻辑回归的方法也可以用于多项式逻辑回归
代码实现
整理后再写入
最大熵模型
最大熵原理
最大熵模型是概率模型学习的一个准则,学习概率模型时,在所有可能的概率模型(分布)中,熵最大的模型是最好的模型,通常用约束条件来确定概率模型的集合,所以,最大熵原理可以表述为在满足约束条件的模型集合中选择熵最大的模型
熵是由信息论男神克劳德·艾尔伍德·香农(Claude Elwood Shannon )在1948年提出的“信息熵“,用来描述信息的不确定程度,熵越大,不确定程度越大,而系统的混乱程度越低,熵的单位通常为比特。
假设离散随机变量的概率分布是 ,其熵是
且熵满足不等式,是的取值个数,当且仅当为均匀分布时,右边等号成立,即服从均匀分布时,熵最大。当我们需要对一个事件的概率分布进行预测时,最大熵原理告诉我们所有的预测应当满足全部已知的条件,而对未知的情况不要做任何主观假设(不做主观假设这点很重要)。也就是让概率分布最均匀,预测的风险最小
最大熵模型定义
假设分类模型是一个条件概率分布,表示输入,表示输出,这个分类模型表示,给定一个输入,以条件概率输出。
给定训练集
对于给定的训练集可以确定联合分布以及边缘分布的经验分布,确定方法都是通过频数(v)/样本总数(N),即
特征函数表示输入与输出之间的关系
那么特征函数关于训练集联合分布的期望值,用表示为:
而特征函数关于模型与经验分布的期望表示为:
如果模型能够获取到训练集中到信息,那么就假设这两个期望值相等,即
最大熵模型
假设满足所有约束条件的模型集合为
定义在条件概率分布的条件熵为:
则模型中条件熵最大的模型称为最大熵模型
NOTE
⛽️条件熵推导:
最大熵模型的学习
给定训练集以及特征函数以及特征函数,最大熵模型等价于约束最优化问题
求解过程
1.把最大值问题等价为求最小值问题
2.引入拉格朗日将有约束的问题转化为无约束的问题
3.基于构造的拉格朗日等式对求偏导
4.求出再带入对拉格朗日乘子求偏导
打公式太麻烦,为就直接手写放照片来❤️
最大熵公式推导过程
[图片上传失败...(image-14a775-1551349596414)]
最终得到最大熵模型如下:
其中
极大似然估计
极大似然是参数估计的一种方式,原理是利用已知样本去推导出最大概率出现该样本的参数。
理解之后再写入
总结
logistic回归和最大熵模型都是对数线性模型 它们的学习一般采用极大似然估计或者正则化极大似然估计,逻辑回归和最大熵模型学习可以转化为无约束最优化问题,求解该类最优化算法有改进的迭代尺度法、梯度下降法、拟牛顿法(具体最优化方法再单独介绍)。