生成式方法

生成式方法(generative methods)是直接基于生成式模型的方法.此类方法假设所有数据(无论是否有标记)都是由同一个潜在的模型“生成”的.这个假设使得我们能通过潜在模型的参数将未标记数据与学习目标联系起来,而未标记数据的标记则可看作模型的缺失参数,通常可基于EM算法进行极大似然估计求解.此类方法的区别主要在于生成式模型的假设,不同的模型假设将产生不同的方法.

给定样本x,其真实类别标记为y ∈\mathcal{Y},其中\mathcal{Y}=\{1,2, \ldots, N\}为所有可能的类别.假设样本由高斯混合模型生成,且每个类别对应一个高斯混合成分.换言之,数据样本是基于如下概率密度生成:

p(\boldsymbol{x})=\sum_{i=1}^N \alpha_i \cdot p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)  (1)

其中,混合系数\alpha_i \geqslant 0, \sum_{i=1}^N \alpha_i=1 ; p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)是样本x属于第i个高斯混合成分的概率;\boldsymbol{\mu}_i \boldsymbol{\Sigma}_i为该高斯混合成分的参数.

f(x)∈y表示模型fx的预测标记,\Theta \in\{1,2, \ldots, N\}表示样本x隶属的高斯混合成分.由最大化后验概率可知

\begin{aligned}
f(\boldsymbol{x}) & =\underset{j \in \mathcal{Y}}{\arg \max } p(y=j \mid \boldsymbol{x}) \\
& =\underset{j \in \mathcal{Y}}{\arg \max } \sum_{i=1}^N p(y=j, \Theta=i \mid \boldsymbol{x}) \\
& =\underset{j \in \mathcal{Y}}{\arg \max } \sum_{i=1}^N p(y=j \mid \Theta=i, \boldsymbol{x}) \cdot p(\Theta=i \mid \boldsymbol{x})
\end{aligned},  (2)

其中

p(\Theta=i \mid \boldsymbol{x})=\frac{\alpha_i \cdot p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)}{\sum_{i=1}^N \alpha_i \cdot p\left(\boldsymbol{x} \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)}  (3)

为样本x由第i个高斯混合成分生成的后验概率,p(y=j \mid \Theta=i, \boldsymbol{x})x由第i个高斯混合成分生成且其类别为j的概率.由于假设每个类别对应一个高斯混合成分,因此p(y=j \mid \Theta=i, \boldsymbol{x})仅与样本x所属的高斯混合成分 \Theta有关,可用p(y=j \mid \Theta=i)代替.不失一般性,假定第i个类别对应于第i个高斯混合成分,即p(y=j \mid \Theta=i)=1当且仅当i=j,否则p(y=j \mid \Theta=i)=0.

不难发现,式(2)中估计p(y=j \mid \Theta=i, \boldsymbol{x})需知道样本的标记,因此仅能使用有标记数据;而p(\Theta=i \mid  \boldsymbol{x})不涉及样本标记,因此有标记和未标记数据均可利用,通过引入大量的未标记数据,对这一项的估计可望由于数据量的增长而更为准确,于是式(2)整体的估计可能会更准确.由此可清楚地看出未标记数据何以能辅助提高分类模型的性能.

给定有标记样本集D_l=\left\{\left(\boldsymbol{x}_1, y_1\right),\left(\boldsymbol{x}_2, y_2\right), \ldots,\left(\boldsymbol{x}_l, y_l\right)\right\}和未标记样本集D_u=\left\{\boldsymbol{x}_{l+1}, \boldsymbol{x}_{l+2}, \ldots, \boldsymbol{x}_{l+u}\right\}, l \ll u, l+u=m.假设所有样本独立同分布,且都是由同一个高斯混合模型生成的.用极大似然法来估计高斯混合模型的参数\left\{\left(\alpha_i, \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right) \mid 1 \leqslant i \leqslant N\right\}, D_l \cup D_u的对数似然是

\begin{aligned}
L L\left(D_l \cup D_u\right)= & \sum_{\left(\boldsymbol{x}_j, y_j\right) \in D_l} \ln \left(\sum_{i=1}^N \alpha_i \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right) \cdot p\left(y_j \mid \Theta=i, \boldsymbol{x}_j\right)\right) \\
& +\sum_{\boldsymbol{x}_j \in D_u} \ln \left(\sum_{i=1}^N \alpha_i \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)\right) .
\end{aligned}  (4)

式(4)由两项组成:基于有标记数据D_l的有监督项和基于未标记数据D_u的无监督项.显然,高斯混合模型参数估计可用EM算法求解,迭代更新式如下:

>> E步:根据当前模型参数计算未标记样本x_j属于各高斯混合成分的概率

\gamma_{j i}=\frac{\alpha_i \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)}{\sum_{i=1}^N \alpha_i \cdot p\left(\boldsymbol{x}_j \mid \boldsymbol{\mu}_i, \boldsymbol{\Sigma}_i\right)};  (5)

>> M步:基于\mathcal{y}_{ji}更新模型参数,其中l_i表示第i类的有标记样本数目

\begin{aligned}
\boldsymbol{\mu}_i & =\frac{1}{\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i}+l_i}\left(\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i} \boldsymbol{x}_j+\sum_{\left(\boldsymbol{x}_j, y_j\right) \in D_l \wedge y_j=i} \boldsymbol{x}_j\right), \\
\boldsymbol{\Sigma}_i & =\frac{1}{\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i}+l_i}\left(\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i}\left(\boldsymbol{x}_j-\boldsymbol{\mu}_i\right)\left(\boldsymbol{x}_j-\boldsymbol{\mu}_i\right)^{\mathrm{T}}\right.
\end{aligned}  (6)

\left.+\sum_{\left(\boldsymbol{x}_j, y_j\right) \in D_l \wedge y_j=i}\left(\boldsymbol{x}_j-\boldsymbol{\mu}_i\right)\left(\boldsymbol{x}_j-\boldsymbol{\mu}_i\right)^{\mathrm{T}}\right),  (7)

\alpha_i=\frac{1}{m}\left(\sum_{\boldsymbol{x}_j \in D_u} \gamma_{j i}+l_i\right).  (8)

以上过程不断迭代直至收敛,即可获得模型参数.然后由式(3)和(2)就能对样本进行分类.

将上述过程中的高斯混合模型换成混合专家模型、朴素贝叶斯模型等即可推导出其他的生成式半监督学习方法.此类方法简单,易于实现,在有标记数据极少的情形下往往比其他方法性能更好.然而,此类方法有一个关键:模型假设必须准确,即假设的生成式模型必须与真实数据分布吻合;否则利用未标记数据反倒会降低泛化性能.遗憾的是,在现实任务中往往很难事先做出准确的模型假设,除非拥有充分可靠的领域知识.


来自西瓜书

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,277评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,689评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,624评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,356评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,402评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,292评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,135评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,992评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,429评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,636评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,785评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,492评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,092评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,723评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,858评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,891评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,713评论 2 354

推荐阅读更多精彩内容

  • 我们提出了一个简单的分类概率图模型的半监督学习问题。我们为每个族提供了一些广泛的算法类,并指出了文献中的具体实现。...
    AW_5365阅读 1,231评论 0 0
  • 数十年以来,统计学家提倡使用标记数据和未标记数据的组合,通过迭代期望最大化(EM)技术估计生成模型的参数来训练分类...
    AW_5365阅读 1,413评论 0 0
  • 13.1 未标记样本 让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能,就是半监督学习(semi-sup...
    一杭oneline阅读 1,216评论 0 2
  • 本章参照周志华《机器学习》第13章编写参考博文读书笔记 https://blog.csdn.net/u011826...
    MikeShine阅读 4,350评论 0 0
  • 半监督学习还可以进一步划分为纯半监督学习和直推学习,前者假定训练数据集中的未标记数据并非待预测数据,而后者假定学习...
    熊猫学猿阅读 136评论 0 1