机器学习基础之参数估计

机器学习基础之参数估计

一、参数估计

对所要研究的随机变量\xi,当它的概率分布的类型已知,但是参数未知,比如\xi服从正太分布N(\alpha, \sigma)。但是\alpha, \sigma这两个参数未知。那么这么确定这些未知参数呢?我们可以通过采样的方式,得到一批样本数据,用样本的统计量来估计总体的统计量。那么这种方式就是参数估计

我们先来看一种简单的估计。

矩法估计:设总体\xi的分布函数F(x; \theta_1,\theta_2, ..., \theta_l)l个未知参数\theta_1,\theta_2, ..., \theta_l。假定总体\xil阶原点绝对矩有限,并记v_k=E(\xi^k) (k=1,2,...,l)。现用样本的k阶原点矩来作为总体的k阶矩的估计量\hat{v}_k。即
v_k=\hat{v}_k=\frac{1}{n}\sum_{i=1}^n\xi_i^k

那么通过样本的估计量,我们就可以估计出总体的一些参数。

比如假设\xi服从一个分布(不管什么分布),E(\xi)=\alpha, D(\xi)=\sigma^2。但其值未知,则由样本的一阶矩、二阶矩

\hat{v}_1=\frac{1}{n}\sum_{i=1}^n\xi_i=\overline{\xi}

\hat{v}_2=\frac{1}{n}\sum_{i=1}^n\xi^2_i

总体的一阶矩、二阶矩

v_1=E(\xi^1)=\alpha, v_2=E(\xi^2)=D(\xi)+(E(\xi))^2=\sigma^2+\alpha^2

v_1=\hat{v}_1, v_2=\hat{v}_2, 就可以解出参数\alpha, \sigma的值.

\hat{\alpha}=\overline{\xi}\\ \hat{\sigma^2}=\frac{1}{n}\sum_{i=1}^n\xi^2_i-(\overline{\xi}^2)=\frac{1}{n}\sum_{i=1}^n(\xi_i-\overline{\xi})^2=S^2

二、极大似然估计(Maximum Likelihood Estimate)

矩法估计要求随机变量\xi的原点矩存在。再者,样本矩的表达式用总体\xi的分布函数表达式无关,因此矩法估计没有充分利用分布函数对参数提供的信息。所以很多时候我们采用极大似然估计

(极大似然估计)设总体的\xi的密度函数为f(x;\theta_1, \theta_2, ..., \theta_l),其中\theta_1, \theta_2, ..., \theta_l为未知参数。\xi_1, \xi_2, ..., \xi_n为样本,它的联合密度函数为f(x_1, x_2, ..., x_n;\theta_1, \theta_2, ..., \theta_l)

L(\theta_1, \theta_2, ..., \theta_l)=\prod_{i=1}^nf(x_i; \theta_1, \theta_2, ..., \theta_l)\theta_1, \theta_2, ..., \theta_l的似然函数。若有\hat{\theta_1}, \hat{\theta_2}, ..., \hat{\theta_l}使得下试成立:

L(\hat{\theta_1}, \hat{\theta_2}, ..., \hat{\theta_l})=max {L(\theta_1, \theta_2, ..., \theta_l)}, 则称\hat{\theta_1}, \hat{\theta_2}, ..., \hat{\theta_l}为为参数\theta_1, \theta_2, ..., \theta_l的极大似然估计量

举例:
假如有一个罐子,里面有黑白两种颜色的球。我们独立且有放回的取100次,统计得到70个白球,30个黑球。那么我们凭感觉可以猜测这个罐子里白球占70%,黑色占30%。假设取得一次白球的概率为p,那么这次实验的数学表达就是

P(该次实验)=p^{70}(1-p)^{30}

我们有理由相信我们观察到的结果是概率最大的。 所以对上述式子求导,可以得到当p=0.7时取得最大值。

所以极大似然背后的直观原理就是我们观测到的实验结果是概率最大的

三、再谈逻辑回归

训练数据{(x_1,y_1), (x_2, y_2), ...,(x_N, y_N)}, 其中x_i \in R^n, y_i \in {0,1}。即每个样本x_i有n个特征,标签1表示正例、0表示负例。逻辑回归模型描述如下:

z = wx+b\\ a=\sigma(z)\\ P(Y=1;w)=a, P(Y=0;w)=1-a,

其中w\in R^n是需要学习的参数,\sigma=\frac{1}{1+e^(-x)}是激活函数。

数据已知,参数w未知,概率分布已知。那么就可以极大似然估计来估计模型参数。

L(w)=\prod_{i=1}^N(a_w(x_i))^{y_i}(1-a_w(x_i))^{1-y_i}, 其中a_w(x_i))表示在输入是x_i时候的模型输出。
模型的训练目标就是找到参数w使得上述似然函数取得最大值。那么这么找到这个w呢?
通过反向传播算法让w沿梯度正方向更新
去对数不改变函数取得最大值时的w,所以在实际过程中都是用的对数似然。

ln(L(w))=\sum_{i=1}^N[y_iln(a(x_i))+(1-y_i)ln(1-a(x_i))]

\frac{\partial(ln(L(w)))}{\partial(w)}=\sum_{i=1}^N[y_i*\frac{1}{a(x_i)}*a(x_i)*(1-a(x_i))*x_i+(1-y_i)*\frac{1}{1-a(x_i)}*(-1)*a(x_i)*(1-a(x_i))*x_i]=\\ \sum_{i=1}^N[yi*(1-a(x_i))*x_i-(1-y_i)*a(x_i)*x_i]=\sum_{i=1}^N[x_i*y_i-x_i*a(x_i)]=\\ \sum_{i=1}^N[x_i(yi-a(x_i))]
其中a(x_i)在前向传播过程中是已知的,所以这个表达式还是很简洁的。

注:上述求导过程中用到了链式法则和\frac{\partial \sigma}{\partial x}=\sigma(1-\sigma)公式

参考文献:

  1. 邓集贤。概率论及数理统计,第四版,高等教育出版社
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,390评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,821评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,632评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,170评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,033评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,098评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,511评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,204评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,479评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,572评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,341评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,893评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,171评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,486评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,676评论 2 335

推荐阅读更多精彩内容

  • 摘要 极大似然估计(MLE),贝叶斯估计(BE),最大后验估计(MAP),共轭先验 正文 问题描述假设观测数据是由...
    jiangweijie1981阅读 129评论 0 2
  • 前言:概率论的理解有些抽象,掌握概率论的方法,用实际样本去无限接近真实,熟练掌握并且使用一些最基本的概念是前提,比...
    飘涯阅读 5,738评论 1 32
  • 高等数学 1.导数定义: 导数和微分的概念 (1) 或者: (2) 2.左右导数导数的几何意义和物理意义 函数在处...
    iOSDevLog阅读 487评论 0 1
  • 》拟合训练数据和寻找能够泛化到新数据的参数有哪些不同。 》如何使用额外的数据设置超参数。 》机器学习本质上属于应用...
    N89757阅读 2,090评论 0 0
  • 符号说明:设有一个统计总体,以表示其概率密度函数(若总体为离散型则为概率函数)。其中,表示任意实数,表示未知的参数...
    To_QT阅读 471评论 0 2