《统计学习方法》 python实现 chapter6 逻辑斯蒂回归与最大熵模型

逻辑斯蒂回归模型

逻辑斯蒂分布:
X是连续随机变量,X服从逻辑斯蒂分布是指X具有下列分布函数和分布密度:
F(x) = P(X \le x)= {1 \over e^{-(x - \mu)\over \gamma}}

密度函数

f(x) = F'(x) = { {e^{-(x - \mu) \over \gamma}} \over {\gamma(1+e^{-(x-\mu)\over\gamma})^2}}

分布函数

公式中,\mu为位置参数,\gamma \gt 0为形状参数
分布函数属于逻辑斯蒂函数,其图形是一条s形曲线(sigmoid curve).形状参数\gamma的值越小,曲线在中心附近增长得越快。
逻辑斯蒂回归模型:二项式逻辑斯蒂回归模型是如下得条件概率分布:
P(Y = 1|x)={{exp(w·x+b)}\over{1+exp(w·x+b)}}
P(Y = 0|x)={1\over{1+exp(w·x+b)}}
将x输入两个条件概率分布,选取结果较大得值作为结果


最大熵模型

最大熵原理认为,学习概率模型时,在所有可能得概率模型(分布)中,熵最大得模型是最好得模型。
假设离散随机变量X的概率分布是P(X),则其熵是H(P) = - \sum_x P(x)logP(x)
熵满足下列不等式:0\le H(P) \le log|X|
式中,|X|X的取值个数,当且仅当X的分布是均匀分布时右边的等号成立。这就是说,当X服从均匀分布时,熵最大。
定义:最大熵模型
假设满足所有约束条件的模型集合为
C \equiv \{ P \in \rho |E_p(fi) = E_{\hat p}(fi), i = 1, 2, ···,n \}
定义在条件概率分布P(Y|X)上的条件熵为
H(P) = - \sum_{x,y}{\hat P}(x)P(y|x)logP(y|x)
则模型集合C中条件熵H(P)最大的模型称为最大熵模型

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。