李宏毅《机器学习》第21讲 半监督学习

Semi-supervised learning

  • A set of unlabeled data, usually U >> R (unlabeled data多于labelled data)
  • Transductive learning: unlabeled data is the testing data, training的时候用了testing data的feature,但是不能找它的label出来
  • Inductive learning: unlabeled data is not the testing data,training的时候不考虑testing data。
    之所以有效果的原因:未标记的数据的特征是有价值的,例如下图,未标记的样本分布决定SVM的超平面怎么划:


    who knows

Why semi-supervised learning?

  • Collecting data is easy, but collecting “labelled” data is expensive
  • We do semi-supervised learning in our lives.

Why semi-supervised learning helps?
semi-supervised learning伴随一些假设,semi有没有用取决于假设合不合理。


why semi
outline

-Semi-supervised generative model
-Low-density separation assumption
-Smoothness assumption
-Better Representation

Semi-supervised generative model

supervised generative model
semi-supervised generative model

Unlabeled data 会影响Probability和decision boundary的估测。
给出一组初始化参数θ
Step1: compute the posterior probability of unlabeled data, depending on model θ
Step2: update model


semi计算

初始值影响收敛的结果


初始值影响收敛的结果

Low-density Separation Assumption

非黑即白的假设


非黑即白

Self-training model

先用labelled data训练一个模型,用这个模型train一些unlabeled data生成一些假的标签Pseudo-label
从unlabeled data里面选a set of data加进labelled data set里面去,如何选择?可以自己设置一些方法,比如比unlabeled data里的data sets设置权重。
再重复以上过程。


Self-training

Self-training v.s. generative model

Hard label (强制assign label) v.s. Soft label (label prob)
假设现在用的是neural network,哪个work?


Hard v.s. Soft label

进阶版Entropy-based Regularization

不强制assign label,但是假设output符合某种distribution,如果distribution是集中的那就是比较好的。
怎么评估y的集中程度?就是用Entropy的方法。
Entropy越小distribution越集中。


entropy

Semi-supervised SVM

Semi-supervised SVM穷举所有unlabeled data的label的可能性,然后对每一个可能的结果算SVM,哪一种可能性会让margin最大同时minimize error。


semi svm

Smoothness Assumption

近朱者赤,近墨者黑
假设:x分布是不平均的,在某些地方集中,在某些地方分散,如果两个x在某个高密度区域相近,那么它们的y是一样的。
connected by a high density path。


Smothness

Smooth用于文件分类

因为词汇很多,你的label data和unlabeled data之间可能没有任何overlap


Smooth用于文件分类1

但如果collect到够多的unlabeled data,那就会得到一些overlap。
Smooth用于文件分类2

如何实现?

方法1: Cluster and then label

cluser

这个方法不一定work,因为需要cluster很强。

方法2: Graph-based approach

每一笔data画成graph,如果两个点在graph走的到,就属于一个class。
怎么画图?
有些现成的,比如hyperlink of webpages,citation of papers,
但是有时候可能需要自己想办法画图。

  1. 定义两个x之间算相似度的方法;
  2. Add edge:KNN, e-Neighborhood
  3. 给edge一些weight,让它跟x之间的相似度成正比,比如Gaussian Radial Basis Function。


    Graph-based1

Graph-based approach原理:
The labelled data influence their neighbors.
Propagate through the graph.
这种方法的前提是critical data要够多,要不连接传不过去。


Graph-based2

Define the smoothness of the labels on the graph


Graph smoothness1

另外S可以通过矩阵运算得到,即计算L, W为图的邻接矩阵,D的对角线上的值为每行的和


Graph smoothness2

在神经网络传播时,将S乘上权重λ加到损失函数上:
Graph smoothness3

Better Representation

去芜存菁,化繁为简
(到讲supervised的时候再讲)

Better Representation原理:


better represent

我自己的summary:
半监督学习有一堆远远多于labeled data的unlabeled data,它的学习过程基于一些假设。半监督生成式(generative)模型给出一组初始θ,据此计算unlabeled标签属于哪一类label的可能性(soft label),再update模型,初始值影响收敛的结果。Self-training模型基于非黑即白(Low-density Separation)的假设,会强制assign label (hard label)生成一些假的标签Pseudo-label。有一种进阶版Entropy-based正则化不强制给label,但假设output符合某种distribution,该分布越集中越好。Semi-supervised SVM穷举所有unlabeled data的label的可能性,然后对每一个可能的结果算SVM,哪一种可能性会让margin最大同时minimize error。还有一种假设是Smoothness Assumption(近朱者赤,近墨者黑),意思是假设如果两个x在某个高密度区域相近,那么它们的y是一样的。基于这种假设有cluster-based和graph-based的算法,前者有限制,依赖好的cluster,后者比如标签传播算法(Label Propagation Algorithm)是一种基于图的半监督算法,通过构造图结构(数据点为顶点,点之间的相似性为边)来寻找训练数据中有标签数据和无标签数据的关系。

b站学习链接:https://www.bilibili.com/video/BV1Ht411g7Ef?p=23

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,504评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,434评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,089评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,378评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,472评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,506评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,519评论 3 413
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,292评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,738评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,022评论 2 329
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,194评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,873评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,536评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,162评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,413评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,075评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,080评论 2 352

推荐阅读更多精彩内容