Logistics回归与Fisher线性判别分析
Logistic回归
-
阶跃函数
对于二分类任务来说,线性回归模型产生连续的预测值,需要将其转化为
最理想方式是将预测值
带入如下的单位阶跃函数:
然而阶跃函数不连续、无法微分,于是找到替代函数(对数几率函数):
-
具体算法
初始化模型,输入数据集:
-
模型输出:
初始化模型参数
建立逻辑回归模型
令
-
令输出结果
服从两点分布,有
构造样本的对数似然函数
将负对数似然函数作为损失函数,求其最小值
特别地有:
令一阶导数等于0,通过数值方法求出。
再将
带入二阶偏导数构成的
矩阵,若矩阵正定,则负对数似然函数在
处取得极小值
将得到的
带入
,得到训练后的Logistic回归模型
梯度下降法
Hesse矩阵
牛顿法和拟牛顿法
Fisher 线性判别分析
- 线性判别分析(Linear Discriminant Analysis),LDA是一种经典的线性学习方法,最早由Fisher提出,也称作“Fisher判别分析”
- LDA的思想:给定训练样例集(包含两个特征),设法将样例投影到一条直线上使得同类样例的投影点尽可能接近、异类样例投影点尽可能相互远离。在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别
给定数据集
,令
分别表示第
类示例的集合、均值向量、协方差矩阵。若将数据投影到直线
上,则两类样本的中心在直线上投影为
和
-
要使得样例的投影点尽可能接近,可以使同类样例投影点的协方差
尽可能小
要使得异类样例的投影点尽可能远离,即
尽可能大,由此得到目标函数
定义“类内散度矩阵”
定义“类间散度矩阵”
目标函数重写为
即与
的"广义瑞利商"
为了确定
,由于分子分母均含有
,因此
与
的模长无关而仅与其方向有关,得到等价的约束优化目标:
利用拉格朗日乘子法
解得
实践中通常对进行奇异值分解,分别求出分解矩阵的逆,进而求得
-
推广到多分类问题,假定存在N个类,第
类样例数为
定义“全局散度矩阵”
定义“全局类内散度矩阵”
由此得到“全局类间散度矩阵”
由此可知可以做到“知二推三”
多分类问题常见的优化目标
按照相似的拉格朗日乘数法,令得到
的闭式解恰好是
的N-1个最大广义特征值对应的特征向量组成的矩阵
LDA可以被视为一种经典的监督降维技术,例如将二维的样本
投影到一维直线
上
奇异值分解
参考内容
伪逆矩阵(广义逆矩阵)https://www.jianshu.com/p/609fa0cce409
奇异值分解(SVD)https://zhuanlan.zhihu.com/p/29846048
统计学习方法 李航
机器学习 周志华