我们提出了一个简单的分类概率图模型的半监督学习问题。我们为每个族提供了一些广泛的算法类,并指出了文献中的具体实现。最后,我们对使用输入相关正则化(或条件先验分布)的一系列方法进行了更详细的说明,并显示出与联合训练模式的相似性。
2.1 半监督学习问题
半监督学习(SSL)问题最近在机器学习社区获得极大的关注,主要是由于其在实际应用中的重要性。在这一部分,我们定义问题和并在本章的其余部分介绍需要的符号。
在统计机器学习中,我们分为非监督和监督机器学习。在前一种情况下,我们会有一个采样由密度为 的未知数据分布生成的 独立同分布模式
中的样本
。我们的目标是估计一个密度或密度(已知的)的函数。监督学习包括估计协变量
与类变量
之间的函数关系
,其目标是最小化(联合)数据分布
的函数,如分类误差的概率。边缘数据分布
被称作输入分布。分类可被看作是估计联合密度
的一种特例,但这是徒劳的,因为在预测时输入
总会被提供的,因此就没有必要去估计输入分布。
术语“非监督学习”就有点不幸了:密度估计这一术语可能是首选。传统上,许多用于密度估计的技术会提出一个潜在(未被观察的)的类变量 并将估计
看作估计 混合分布
。请注意,与在分类中的作用相比
有本质上不同,因为它的存在和范围
是一个建模选择,而不是来自于可观察的现实。然而,在其他密度估计技术中,如非线性维数约简中,“无监督”一词没有意义。
半监督学习问题属于监督型问题,因为其目标是使分类误差最小化,而不寻求的估计。与标准分类设定不同的是 半监督学习既使用采样自联合密度为
的独立同分布的标记样本
,也使用采样自边缘密度为
的非标记样本
。我们特别感兴趣的情况是,可能出现在获取未标记样品便宜和容易,而标记样品昂贵或困难的
情况下。我们设
,
与
。未被观测到的标签被设为
。在对ssl的简单概括(这里不讨论)中,关于
的不确定信息是可用的。
SSL有两种明显的基准方法。我们可以忽略 将它看作一个监督分类问题,或者我们可以将
作为混合估计中的潜在类变量,用无监督方法拟合
,然后用
将潜在类与观察类联系起来(阅读 2.3.1 章获取更多细节)。人们会同意,任何有效的 SSL 技术都应该在一系列实际相关的情况下显著优于这两种基线方法。如果这听起来相当含糊,请注意,一般来说,对于固定的SSL方法,应该很容易构建数据分布,其中任何一个基线方法都更好。我们认为,SSL 更多是一个实践问题而不是理论问题。通过选择先验和模型,一个有用的SSL技术应该以类似于贝叶斯学习的方式配置到任务的细节。虽然已经为 SSL 做了一些理论工作,但到目前为止,大部分相关工作都涉及到现实应用程序。
2.2 半监督学习范式
由于SSL方法是有监督的学习技术,因此可以根据标准分类法将其分类为生成式和判别式范式。在本节中,我们将介绍这些范例,并强调它们在 SSL 情况下的差异。我们还注意到,这种起源于纯监督方法的分类法在应用于 SSL 时可能不明确,我们建议如何精确地划定边界线。
在本节的图中,我们使用了统计和机器学习中常用的方便的图形符号。这些所谓的有向向图形模型(或独立图)具有以下直观的语义。节点代表随机变量。节点的父节点是存在有向边
的节点
。一旦知道节点的所有父节点的值,就可以对其值进行采样。因此,一个图形模型是一种简单的方法,用来表示来自多个变量分布的采样机制。因此,图形模型编码了必须为分布保留的条件独立约束。为了从分布中进行采样,我们从没有父节点的节点开始,沿着边的方向工作。我们还利用了矩形盒子组成的一组节点板。这意味着该组是从相同的分布(I.I.D.)中重复和独立地取样的,这些分布(I.I.D.)条件是所有节点都是任何板件的父节点。例如,2.2.1 节的图表示我们首先独立地采样
和
,然后对条件于
的独立同分布的
进行采样。
注意,我们从一个明确的贝叶斯观点来描述生成式和判别式范式。这在某种程度上是一个个人选择的问题,当然,我们可以在不提及诸如先验分布之类的概念的情况下画出这些类的草图。另一方面,贝叶斯视图避免了许多不必要的复杂情况,因为所有变量都是随机的,所以不必做任何区别。在函数独立性和概率独立性之间,等等,所以我们认为我们的介绍不会因为这个选择而缺乏清晰性或一般性。
2.2.1 生成式范式
我们将遵循生成式范式的架构称为生成式方法。在此基础上,利用模型族对类分布
进行建模,并利用
、
对类先验
进行建模。我们将这种类型的体系结构称为联合密度模型,因为我们是通过
对全联合密度
进行建模的。对于任何固定的
,
,
的估计可以通过Bayes公式计算:
这有时被称为插件估算。或者,我们可以通过后验分布上平均
来获得贝叶斯先验分布
。在生成范式中,边缘
的模型自然为:
如果有标记和未标记的数据可用,自然标准是和
的联合对数似然。
亦可选择后验分布。这本质上是存在缺失数据时的最大似然问题(将
视为一个潜在变量),原则上可以通过期望-最大化(EM)算法(见第2.3.1节)或直接梯度下降来解决。
一些研究人员很快就把这种策略称为解决SSL问题的一种明显的方法,但事实并非如此,在大致相同的意义上,生成方法往往不能为分类问题提供很好的解决方案。生成技术提供了一个过程中的估计值,尽管分类不需要这一点,而且一般来说,如果给定有限的数据,这是浪费的。例如,最大化有限样本的联合概率不会导致较小的分类误差,因为根据模型,通过改进
的拟合而不是
的拟合,可能会增加似然。这是一个在最终预测时平衡
和
的影响的一般问题的例子,特别是在
的情况下。这个问题就在2.3.1节探讨。进一步而言,在SSL设置中,
是一个潜在变量,必须在
上归纳,导致高度多模后验,使最大似然或后验最大化技术受到非常多(局部)极小值的困扰。
2.2.2 判别式范式
在判别式方法中,我们使用分布族直接对条件分布
建模。为了得到一个完整的数据采样模型,我们还必须用一个
模型族对
进行建模;然而,如果我们只想更新我们对
的信念,或者在看不见的点上预测
,这不是必要的,正如我们接下来将看到的。在这个模型下,
和
与先验独立,即
。
似然因素如:,
这蕴含即
,而且
和
s是后验独立的。进一步说,
。这意味着对未标记数据
的知识和对
的任何知识都不会改变标记样本的后验信念
。因此,在判别方法的标准数据生成模型中,非标记数据
不能用于贝叶斯推断,对输入分布
建模不是必要的。有一些非贝叶斯判别技术可以利用
(见2.3.2节),但是这样做的影响(与忽略
相比)通常非常有限。为了在诊断方法中有效地使用未标记的数据,必须修改上面讨论的数据生成模型,如下节所述。
2.2.3 基于输入分布的正则化
当从有限大小的样本 中学习时,通常有许多与数据一致的
关联。正则化的思想是将我们选择的分类器偏向于“更简单”的假设,通过在待最小化的标准中添加一个正则化函数,随着复杂性的增加而增长。这里,简单性的概念取决于任务和模型设置。例如,对于线性模型,通常惩罚权向量的范数,对于一些常用的正则化函数,可以证明这相当于在权向量上放置一个零均值先验分布。从现在起,我们只对先验的正则化感兴趣,并且可以互换使用这些术语。
我们可以从2.2.2 节看到使用直接判别式贝叶斯方法分类,我们不能利用附加的非标记数据集,因为
(
的参数)和
(
)是先验独立的。换句话说,模型族
是独立于输入分布的正则化。
如果我们允许在和
之间先验依赖,如
和

(如上图所示的依赖性),情况就不同了。原则上,条件先验
允许有关
的信息传输到
。一般,
和
在给定标记数据
的情况下是依赖的,因此非标记数据会改变我们对
的后验信念。
我们得出结论,为了在判别贝叶斯监督技术的背景下使用额外的未标记数据,我们必须允许表示条件概率的潜在函数与输入概率本身之间存在先验依赖关系。换句话说,我们必须使用一个依赖于输入分布的潜在函数的正则化。潜在收益可以通过以下论证来证明。注意,条件先验表示一个边际先验,它是一个混合分布:
。通过对未标记的数据进行处理,这由 相对
有更小商的
代替,意味着后验信念
比
窄很多。另一方面,同样的论点也可以用来证明使用额外的未标记的数据
可能会带来伤害而不是帮助。也就是说,如果先验
非常严格地执行某些约束,但在真实分布
中恰好违反了这些约束,那么条件“先验”
将把比
低得多的概率分配给接近真实的模型
,并且后验
可以集中在次优模型周围。虽然很容易构建额外的未标记数据受到伤害的人工情况,但令人担忧的是,在实际相关的设置中,此类故障确实发生得非常意外。要更深入地分析这个问题,请参阅Cozman和Cohen(本卷第4章)。
我们注意到,虽然对这里建议的判别式方法的标准数据生成模型的修改很简单,但是选择适合手头任务的适当的条件先验可能是具有挑战性的。然而,正如第2.3.3节所演示的那样,实际上可以将几种用于SSL的通用技术视为实现依赖于输入的正则化。
对这点读者可能感到不容易。如果我们使用一个先验依赖 和
,最终的预测分布 依赖于输入分布的先验
。这迫使我们对输入分布本身进行建模,与标准判别式方法的情况不同。在这种情况下,我们的方法还是判别式方法吗?是不是只要对
建模的方法在某种程度上必须自动地是生成式的?仅仅因为不需要估计
,判别式方法能够更加简洁。为了实现与输入相关的正则化,我们是否必须使用具有第2.2.1节讨论的有缺点的生成模型?这里确实存在一些歧义,但我们将尝试在第2.2.4节中澄清这一点。在这个一般的观点下,依赖于输入的正则化实际上是一种判别式的SSL技术。
对监督任务而言的判别式范式中,和
被看作是先验独立的,从而导致
的任何方面都不需要估计。虽然这样做是方便的,我们是否应该相信这样对现实世界而言的独立性假设是不清楚的。例如,假设
加强了关系
的平滑性。在所有x的周围加强
的平滑是明智的,还是我们不应该只在
有很大的体积时才惩罚粗暴行为?
2.2.4 范式之间的界限
虽然有监督方法和无监督方法之间的界限很清楚,但生成技术和判别式技术之间的区别可能不明确,特别是如果我们将此分类法应用于SSL。在这一部分中,我们给出了两个明确区分的标准:一个简单的标准和一个更详细的标准。在某种意义上,它们都基于同一个问题,即估计对预测的作用。
回想一下,我们把自己局限于那些最终目标是估计的方法。传统上,生成方法通过对联合分布
进行建模来实现这一点,并通过捕获真实联合数据分布的特征来将该模型与数据相匹配。
的估计值总是可以通过将联合估计值(
)边缘化得到。相比之下,判别式方法只是集中于对分布
建模,无法提取
的估计值。然而,在 SSL 情况下为了从
中获益我们需要对
建模。因此所有的 SSL 技术都是生成式的吗?我们反对这种观点,并试图根据
估计实际扮演的角色对SSL技术进行分类。
虽然任何ssl方法都必须以某种方式对进行建模,但在生成技术中,我们显式地对类条件分布
进行建模,以便
的模型是这些分布的混合体。根据这些估计(和
的估计)我们使用贝叶斯公式获得
的估计。预测估计的特征(如参数情况下的函数类)完全依赖于类条件模型。例如,如果后者是具有相同协方差矩阵的高斯函数,则预测估计将基于线性函数。简而言之,我们使用建模工具箱指定
,这意味着
和
估计的形式(后者是
的混合)。编码后一种估计的特定属性的唯一方法是找到
候选者,这些候选者既易于处理,又暗示
和
的期望属性。与之相比,在一个判别式方法中我们直接对
建模,并且在对
建模时也有相当大的自由度。在 SSL 中我们使用来自
的信息正则化
估计,但是我们不必显式地指定类条件分布。虽然这个定义对于这里提到的SSL方法是可行的,但是它在生成方面可能过于限制。例如,2.3.1节的 “多中心每类”模型明显是生成式的,但适用于
的混合模型,其中每个
类有几个组块,并且通过
对
间接建模,即,作为混合分布自身。在下面的段落中,我们提出了一个替代的观点,它为生成式技术留下了更多的自由。
SSL 的实际成功表明,未标记的数据,即关于的知识,对于监督任务是有用的,但根据密度估计的通用性能标准,不一定是相同类型的知识会导致
的良好估计。实际上,只有少数的
通用特征对分类有用(见:2.3.3.1 节)。如果我们通过使用正则化惩罚
估计(违反
的某些方面,如聚类假设(见第2.3.3.1节),将纯判别技术(如SVM或逻辑回归)转换为 SSL 技术,则
对最终
估计的影响仅限于我们希望这对于更好的分类很重要。这些限制是由我们设计的,因为我们希望充分利用
来预测
。相反,如果我们通过最大化混合模型(见第2.3.1节)的联合对数似然(2.1)的适当重加权版本来执行SSL,则没有给出或至少没有直接计划对分类相关方面的限制。事实上,联合模型的设计方法与我们进行密度估计的方法基本相同。
例如,考虑第2.2.3节中有条件先验的框架。虽然了解 SSL 中的很重要,但
的过度简化模型对最终预测的影响远小于密度估计的。这是因为适当的正则化仅取决于
的某些方面(例如,在聚类假设下,高密度区域的粗略位置;见第2.3.3.1节),并且我们的
分布模型只需能够准确地捕捉到这些。
2.3 例子
在本节中,我们提供了属于前一节中介绍的每个类别的SSL方法示例。我们不试图在这里提供一个全面的文献综述,而是有选择性的,以便指出这些类别的特点和区别。请注意,在本文(以及(Seeger,2000b))中,有些方法被分类为“基线方法”。这并不构成贬值,事实上,其中一些方法属于某些任务的执行者。此外,我们认为,对这些方法的理论分析具有很大的价值,尤其是因为许多实践者使用它们。我们的标签适用于可以从标准的无监督或监督方法中相当直接地派生出来的方法,我们希望真正新颖的建议事实上与最密切相关的基线方法进行比较。
2.3.1 生成式技术
从第2.2.1节回忆起,生成技术使用模型族来对联合数据分布
建模。最简单的方法是在
上运行
的混合密度估计方法,将y作为一个潜在类变量,然后使用标记的样本
将潜在类与实际类相关联。这种方法的一个明显问题是,无监督方法提供的标签可能与
不一致,在这种情况下,应该修改聚类以实现与
的一致性。Castelli和Cover(Castelli和Cover,1995)提供了在相当不现实的可识别性条件下对该基线方法的简单分析。也就是说,他们假设数据分布完全可以通过现有的无监督方法识别,该方法使用一个混合模型,每个类有一个组件。目前尚不清楚在实践中如何实现这个目标,即使
是确切知道的。在大样本限制下,所有的类分布都可以很好地学习,但是将类分配给标签名称显然是完全开放的。然而,只需要少量附加的标记数据用来学习这种分配。事实上,很容易看出误差率以指数速度收敛于贝叶斯误差(从
中提取的标记示例数)。
另一个基线方法由最大化 方程 2.1 中的联合似然组成。当 时,要最小化的标准不是凸的,通常是多模态的,因此我们必须努力找到局部最大值。这可以通过直接梯度下降法或 EM 算法实现。后者是一个保证收敛到似然函数的一个局部最大值的迭代程序。如果等式 2.1 中的数据都是标记的,通过对
的单次优化可以得到局部最大值。事实上,如果类条件分布是来自于一个指数家族的,全局最大值可以通过分析得到。EM 算法通过给所有点
分配标签分布
来工作。对一个标记点,标签由
表示。如果
是未标记的,我们使用条件后验分布(对当前
),即
。直观地说,这种选择反映了我们对
标签的最佳当前点估计。EM 中的 E 步骤 由计算所有点的
组成。在 M 步骤中,参数
,
被更新通过最大化
分布下的期望对数似然:
。
E 步和M步交替迭代直到收敛。很容易证明,对于未标记点上的任何选择,联合对数似然(2.1)上的下界为
。如果
被选作后验分布,且参数
,
不变,则该界限将变为相等。进一步说,在这个选择下,下界和联合对数似然的梯度在
,
处是相同的,因此,如果
收敛,我们得到了公式2.1的局部最大值。
在联合生成模型上使用 EM 来训练有标签和无标签的数据的想法几乎和 EM 本身一样古老。Titterington 等(Titterington等人,1985年,第5.7节)回顾了早期关于存在额外未标记数据的判别分析问题的理论工作。最常见的假设是,数据是由两个具有等协方差矩阵的高斯混合分布生成的,在这种情况下,贝叶斯判别式是线性的。他们从生成范式(见第2.2.1节)分析“插件”方法,其中类分布的参数由最大似然估计。如果这两个高斯分布某种程度上很好地分离,则使用未标记样本的渐进增益非常显著。细节见(O'Neill,1978;Ganesaligam和McLachlan,1978、1979)。McLachlan(McLachlan,1975)给出了这种情况下的一种实用算法,它本质上是的“硬”版本,即在每个
步骤中,使用从上一步骤的混合参数派生的判别式,将未标记的点分配给一个总体(注意那时一般的 EM 算法还没有被提出来)。他证明,对于来自每个群体的“适度化”训练集和从混合物中抽取的点的集合
,如果用基于标记数据的最大似然(
)解初始化算法,则该方法计算的解几乎可以肯定地收敛于
的真实混合物分布。这些早期的论文对半监督问题的性质提供了一些重要的洞察,但是它们的严格假设限制了可以为大型现实问题得出的结论。
算法已被Nigam等人应用于文本分类。(参见(Nigam等人,2000年)或本书第3章)从方程 2.1 我们可以看到,在联合对数概率中,标记和未标记的数据按
与
的比率加权。这种“自然”加权如果以面值(即对数据采样机制的正确描述)来计算可能性是有意义的,但它与存在强采样偏差(其准确大小通常未知)的SSL问题有些无关。换言之,未标记的数据往往大量可用,因为它们的获取远比标记的数据的便宜得多。如果我们在极端情况
下自然加权,标记数据
将被显著地忽略。Nigam等人建议分别用
和
对等式2.1中的术语进行重新加权(自然加权由
给出),并通过标准技术(如对
的交叉验证)调整
。
注意,就的
估计而言,
被视为潜在类变量,我们也可以考虑比类更多的混合成分。也就是说,我们可以引入一个额外的分隔变量
,这样在模型下给的
时
和
下是独立的。这意味着关于它的类
的所有信息
都已经在
中捕获了。这一事实在下边的独立模型中得到了说明。

重新加权的联合对数的可能性为,这儿
、
。使用EM 算法 将这个标准最大化是很简单的。Miller和Uyar(Miller和Uyar,1997)提出了使用该模型和高斯分量
的一些结果。在(Nigam等人,2000年)中,“每类多中心”的情况下,与该方法等效。
第2.2.1节已经提到了这种简单的生成混合模型方法的一些缺点。首先,必须小心选择标记和非标记数据源之间的权重 ;比如,自然的权重通常是不合适的。通过对
的交叉验证选择
原则上鲁棒的,但如果
非常小,则必然会失败。其次,对于不接近
的
,联合对数似然有许多(局部)极大值,对于
,与
的一致性越来越弱。Corduneanu 和 Jaakkola 主要解决了这两个问题(Corduneanu 和 Jaakkola,2002年)。在
上的适当可识别性条件下,
(仅标记数据)的最大点是唯一的,而对于
(仅未标记数据),至少由于标签置换对称性,存在许多等效的最大点。因此,当我们追踪从0开始增长
的最大点时,路径必须在一阶临界
处分裂。作者认为,在这个
处的最大对数似然点提供了一个很有希望的解决SSL问题的方法(在这个生成设置中),因为它仍然完全包含标签信息。另外,到达
的路径是唯一的,而对于较大的
,路径是分开的,并且要遵循哪个路径的决定与标签信息无关。他们展示了如何使用同伦延拓(路径跟踪)方法来相当有效地跟踪到
的解路径。通过将自己限制为
,他们绕过了许多(局部)极大值问题,并且他们选择
的动机很好。
Murray和Titterington[1978](另见(Titterington等人,1985年),例4.3.11)建议对每个类使用来获得基于核的密度估计值
。他们固定这些估计值,并使用 EM 算法来最大化
,
的联合可能性,即仅混合系数
。这个程序是鲁棒的,但并没有充分利用非标记数据。如果
很小,则基于核的
估计将很差,即使
可用于获得更好的混合系数值,也不可能挽救最终的歧视。此外,对于
、
之间的自然权重适当的情况,建议使用该程序,而对于
来说,这通常不是这样。
Shahshahani和Landgrebe(Shahshahani和Landgrebe,1994年)根据起源于渐近极大似然理论的方法,对未标记数据是否有助于分类的一般问题进行了分析。他们的论证有些不清楚,并受到了其他许多作者的批评(例如(Nigam等人,2000年;Zhang和Oles,2000年))。他们没有定义模型类,似乎混淆了渐近和有限样本项。毕竟,他们的主张似乎是,未标记的数据可以减少估计量的渐近方差,但他们不担心这样的修改实际上会引入新的偏差,特别是在有趣的当情况下。在实际方面,他们建议的算法是上面讨论的联合
方案。
张和奥利斯(张和奥利斯,2000)对同样使用Fisher信息的SSL进行了另一项分析。作者指出,对于纯粹的判别模型,未标记的数据是无济于事的(当然,这一事实早已为人所知;另见第2.2.2节)。在生成设置中,它们表明只能提供帮助。虽然在他们的假设下这是真的,但它基于渐近概念,在实际情况下可能不相关。Fisher信息仅表征无偏估计量的最小渐近方差,而极大似然估计量通常只具有渐近无偏。将这些概念应用于
很小的情况下,并不能得出很强的结论,而
比
增长得快得多的情况下(甚至是渐近)偏差的问题仍然存在。在实际方面,在一个文本分类任务中,给出了一些经验证据,表明未标记的数据会导致公共转换中的不稳定性,从而“伤害”(见第2.2.3节中的注释)。
2.3.2 判别式技术
我们在 2.2.2 节中注意到 如果 和
是先验无关的 那么非标记数据是不能用于贝叶斯判别式方法的,因此为了使用
我们必须使用条件先验
。非标记数据可能在非贝叶斯设定中也是有用的。Tong和Koller(Tong和Koller,2000)以限制贝叶斯最优分类的名义给出了一个例子。考虑一种诊断方法,其中经验损失项和正则化函数的总和最小化。经验损失项是期望值,即与问题相关的损失函数在标记样本
上的期望值(如 ,0-1 损失 函数
。作者建议通过从
估计
来合并未标记的数据
,然后将经验损失项替换为该估计下的损失期望。正则化项则没有变化。我们可以将此方法与输入依赖正则化作比较(见 2.2.3 节)。前一项,经验损失部分(对一个概率模型而言是负对数似然估计)改为基于
,后一项是正则化项。我们不会期望RBOC从相应的诊断技术中产生非常不同的结果,特别是当n很小时(这是实践中有趣的情况)。这在一定程度上得到了中较弱结果的证实(Tong和Koller,2000年)。为了修改判别式SVM框架,在(Chapelle等人,2001)中提出了一个非常类似的想法。
Anderson(Anderson,1979)提出了一个有趣的逻辑回归修正,其中可以使用未标记的数据。在二元逻辑回归中,对数概率被建模为线性函数,其中 、
,这儿
。安德森现在选择参数
,
和
,以最大化在
和
标准化的约束下
和
的似然函数。对有限集
,这个问题可以转化为一个无限制优化即参数
下的无限制优化问题。对于连续输入变量x,Anderson提倡使用“有限
”情况下导出的
形式,尽管这不是一个光滑函数。不幸的是,怎么将这个想法推广到更多的实际模型中去是不清楚的,例如,如何“核化”它,以及
的形式对于许多有无穷
的问题来说是不够的。
2.3.3 输入依赖正则化
我们在 2.2.3 节讨论过如果和
依赖于先验,则未标记的数据
可用于判别式技术。为了实现这一想法,我们必须指定条件先验
编码我们对
的特性如何依赖于
的知识的信念。
2.3.3.1 聚类假设
不难构建的“恶意”示例,它违背了对
,
的任何给定依赖性假设。然而,在实践中,
的数据中的聚类结构通常与标签一致。推测为什么会出现这种情况并不是很有成效,尽管肯定有一种选择倾向于特征(即
中的组件),这与标记过程相关,这意味着它们应该以与标签相同的方式(即简单的距离)进行分组。聚类假设(CA)(例如(seeger,2000b))提供了一种将这种观察结果用于SSL的一般方法。假设在
中两个点
之间存在一条“路径”,且仅在有效密度
区域内移动,则它们应具有相同的高概率标签
。换句话说,在
的连通高密度区域内,类与类之间的判别函数应该是平滑的。因此,可以直接将CA与全局平滑度假设进行比较,这些假设要求判别式在任何地方都平稳地变化,而不依赖于
。虽然后者也惩罚了训练和测试数据稀少的地区的急剧变化,但CA对此仍然漠不关心。
CA(在不同程度上)是在为SSL提议的许多方法中实现的。最突出的可能是标签传播方法。粗略的想法是从构造一个包含要标记的测试集和所有
的顶点的图。最近邻边由权重与局部相关强度成比例的边连接。然后,我们用标签
初始化与
对应的节点,并以图上的马尔可夫链的方式在其余节点上传播标签分布(Szummer和Jaakkola,2002b)。也可以将设置视为一个高斯场,其中图形和边权重指定了协方差逆矩阵(Zhu等人,2003b)。标签传播技术实现了与无监督光谱聚类相关的CA(Belkin和Niyogi,2003b)。CA已经通过聚类内核的方式为内核机器实现(Chapelle等人,2003)。此外,第2.3.1节中的生成性SSL技术可以看作是相对于混合模型聚类实现CA。
Corduneanu和Jaakkola(见本书第10章)对CA进行了概括,他们展示了如何从信息理论论证中获得条件分布的正则化器。
2.3.3.2 Fisher 核
Fisher内核是在(Jaakkola和Haussler,1999)中提出的,目的是利用基于内核的支持向量机(SVM)框架内的额外未标记数据来检测远程蛋白质同源性。想法是对 使用最大似然去拟合一个生成式模型
。如果
是DNA 序列,可以使用隐马尔可夫模型(HMM)。
代表提取自
的知识,Fisher核是构造一个依赖于这一知识的协方差核
的一般方法。然后我们可以使用
核将一个支持向量机或高斯过程(GP)分类对
进行拟合。将这个设置看作输入依赖正则化的一个例子是在GP 语境下最容易的。这儿,
是一个表示判别函数的过程(为了简单起见,我们假设
),
是一个具有零均值函数和协方差核
的 GP 分布。在机器学习(ML)语境下,
近似于 delta 分布
。
定义 Fisher 评分函数为 (梯度即
在
计算)。Fisher 信息矩阵为
。朴素Fisher 核为
。在一些变体中,F 被替换为
,其中
为比例系数。Fisher核的其他变体是通过使用Fisher分数函数
作为
的特征向量并将其插入标准核(如高斯径向基函数(RBF))中获得的。后一种“嵌入”在实践中似乎更有用。Fisher内核可以从不同角度激活(见(Jaakkola和Haussler,1999)),如作为
之间样本互信息的一阶近似(Seeger,2002年)。
2.3.3.3 协同训练
协同训练(co-training)由 Blum 和 Mitchell 提出(Blum 和 Mitchell, 1998),与早期在非监督学习上的工作有关系(Becker 和 Hinton, 1992)。其思想是利用被分类对象的不同“视图”(这里我们将自己限制为二进制分类,,以及两个视图)。例如,一个网页可以由网页上的文本表示亦可由指向该网页的超链接文本表示。我们可以专门针对每一个视图分开训练分类器,但在这种情况下,未标记的数据
可能会有所帮助,尽管缺少真正的标签,但对于所有视图来说,它必须是相同的。结果表明,协同训练可以看作是使用条件先验的贝叶斯推理的一种特殊情况(见第2.2.3节),如本节下文所示。
设 为一个有限的或可数的输入空间。如果
,
为
的不同视图。我们也提供概念
的空间
。元素
被称为
上的概念,尽管可能对部分
有
。当
处成立时,我们写
。如果
,我们说一个概念
与 A兼容当
对所有
。
意旨所有与 A兼容的概念的空间。如果
是
的分布,支持向量为
,我们说一个概念
与分布
兼容,当它与 S 兼容。
在协同训练设置中,有一个未知的输入分布 。目标概念
采样自
上的某个未知分布,数据分布为
当
,1/2 其他。然而中心假设 是目标概念
是与输入分布
兼容的。更具体地说,概念分布的支持必须包含在
中,所以有效的概念空间可以由
缩小到
。
我们证明了协同训练可以理解为具有条件先验编码相容性假设的贝叶斯推理。我们用 对
建模,为了便利引入了变量
,然后定义
当
,这儿
,所有
都正确标准化的。例如,如果
是有限的,我们选择
。似然由
(无噪声情况)给出。因为
对
,条件先验编码相容性假设。对
后验信念由
给出, 因此
当且仅当
与标记数据
一致且
。就是说 ,如果
,则 对所有包含于
的
而言
,
对其他的 S。另一方面,如果
,我们有
和
至少对
成立。在Blum和Mitchell术语中,
等于给定所有数据的“版本空间”。
上的学习方法的偏差可以编码在势函数
中。
一旦在具有条件先验的贝叶斯框架内理解了协同训练,就可以使用标准技术来执行推理。事实上,我们在(Seeger,2000年a)中表明,Blum和Mitchell提出的联合训练算法可以看作是上述概率模型上(顺序)EM 的变体。这种观点允许我们将协同训练归纳为多个维度,例如,允许噪音、更平滑的先验分布、使用批处理而不是在线训练、不确定而不是测试点上的固定标签等。有关详细信息,请参阅(Seeger,2000a)。
2.4 总结
在本章中,我们描述了一个简单的半监督学习方法分类法,并给出了每个类别的许多 SSL 方法示例。讨论了各组的优势和潜在缺陷。我们强调了在判别式 贝叶斯 SSL 技术中使用条件先验的重要性,并给出了文献中提出的属于这一类的方法的几个例子。