对【From Word Embeddings To Document Distances】的理解

论文题目:From Word Embeddings To Document Distances

作者:Matt J. Kusner, Yu Sun, Nicholas I. Kolkin, Kilian Q. Weinberger

文章发表于32届International Conference on Machine Learning.

1. 储备知识

1.1 Earth Mover's Distance

Earth Mover's Distance(EMD)是一种运输问题的优化算法,主要用于计算两个不同维度分布之间的距离。

参考资料如下:

  1. The Earth Mover's Distance
  2. 图像检索:EMD距离(Earth Mover's Distance)及纠错
  3. EMD距离(Earth Mover's Distance)
  4. The Earth Mover’s Distance as a Metric for Image Retrieval
  5. A Metric for Distributions with Applications to Image Databases
  6. Fast and Robust Earth Mover’s Distances

Fast and Robust Earth Mover’s Distances的算法是本文作者所采用的。

1.2 BOW和TF-IDF

1.2.1 Bag-of-words(BOW)

将所有词语装进一个袋子里,不考虑其词法和语序的问题,即每个词语都是独立的,例如下面两句话:

Jane wants to go to Shenzhen.

Bob wants to go to Shanghai.

就可以构成一个袋子,用一个字典来建立映射匹配:

{"Jane":1, "wants":2, "to":3, "go":4, "Shenzhen":5, "Bob":6, "Shanghai":7}

那么上面两个例句就可以用以下两个向量表示,对应的下标与映射数组的下标相匹配,其值为该词语出现的次数:

[1,1,2,1,1,0,0]
[0,1,2,1,0,1,1]

这两个词频向量就是词袋模型,可以很明显的看到语序关系已经完全丢失。

参考:词袋模型(BOW,bag of words)和词向量模型(Word Embedding)概念介绍

1.2.2 TF-IDF

TF-IDF(Term Frequency-Inverse Document Frequency, 词频-逆文件频率)是一种用于信息检索(information retrieval)与文本挖掘(text mining)的常用加权技术

TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。

TF-IDF的主要思想是:如果某个单词在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。

TF(Term Frequence):

表示词条在文本中出现的频率:
tf_{ i,j }=\frac { n_{ i,j } } { \sum _{ k }{ n_{ k,j } } }
其中,n_{i,j}是该词在文件d_{j}中出现的次数,分母则是文件d_{j}中所有词汇出现的次数总和。

IDF(Inverse Document Frequence):

某一词条t_{i}的IDF,可以由总文件数目除以包含该词语的文件的的数目,再将得到商取对数得到。如果包含该词条t_{i}的文档越少,IDF越大,说明词条具有很好的类别区分能力。
idf_{ i }=log\frac { \left| D \right| } { 1+\left| \{ j:t_{ i }\in d_{ i }\} \right| }
其中,|D|是语料库中文件的总数。| \{ j:t_{ i }\in d_{ i }\}|表示包含词条t_{i}的文件数目。一般分母+1,为了防止该词条不再语料库中而导致分母为0.

TF-IDF:
TF-IDF = TF * IDF
某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。

TF-IDF不足之处:

  1. 没有考虑特征词的位置因素对文本的区分度,词条出现在文档的不同位置时,对区分度的贡献大小是不一样的;

  2. 按照传统TF-IDF,往往一些生僻词的IDF(反文档频率)会比较高、因此这些生僻词常会被误认为是文档关键词;

  3. 传统TF-IDF中的IDF部分只考虑了特征词与它出现的文本数之间的关系,而忽略了特征项在一个类别中不同的类别间的分布情况

  4. 对于文档中出现次数较少的重要人名、地名信息提取效果不佳。

参考:

  1. TF-IDF算法介绍及实现
  2. TF-IDF原理及使用

2. 内容概述

在文档检索、新闻分类、多语言文档匹配等领域,精确计算文档距离具有重要的意义。

常用的模型有BOW和TF-IDF,但它们有如下缺点:

  1. 频率近似正交性(frequence near-orthogonality)( 不太懂,是因为矩阵中含有大量0的元素吗?);
  2. 不能很好描述个体单词之间的距离。

本文利用word2vec模型,提出了一种度量两个文档距离的方法Word Mover's Distance(WMD)。WMD的优化问题可归结为Earth Mover's Distance(EMD)问题的特例,而EMD问题有很好的现成solver。

同时,文章还讨论了几种下界(Lower bound),并提出了RWMD 下界。相比其他下界,RWMD具有更好的紧致性(tight)。

3. Word2Vec Embedding

Word2Vec是2013年由Mikolov等人提出的一个词向量计算工具。它通过一个浅层神经网络语言模型学得每个词的向量表达。

对于一组给定的单词序列w_{1},\cdots ,w_{T},训练的目标是:
\max { \frac { 1 }{ T } } \sum _{ t=1 }^{ T }{ \sum _{ j\in nb(t) }^{ }{ \log { p\left( { w_{ j } }|{ w_{ t } } \right) } } }
其中,nb(t)是单词w_{t}相邻单词集合。

该方法有两点优势:

  1. 训练高效:因为模型解构简单,同时使用层序softmax可以降低计算复杂度;
  2. 可以学得复杂词之间的关系。

4. Word Mover's Distance

4.1 WMD算法推导

在给出优化目标函数前,先解释几个定义:

假设用nBOW向量表示文档,\textbf d \in R^{n}, 定义
d_{ i }=\frac { c_{ i } }{ \sum _{ j=1 }^{ n }{ c_{ j } } }
表示第i个单词在文档中出现的频率,显然,\textbf d是一个稀疏矩阵。

Word travel cost:

单词i和单词j之间的距离定义为:
c(i,j)=\left\| \textbf x_{ i }- \textbf x_{j} \right\| _{2}

Document distance:

这里定义文档距离用的就是Earth Mover's Distance的思想。

设矩阵\textbf T \in R^{n×n}\textbf T_{ij} \ge 0表示文档\textbf d中有多少单词i travel 到 文档\textbf d'单词j,明显,下列等式成立:

\sum _{ j }^{ }{ \textbf T_{ i,j } } =d_{ i }\sum _{ i }^{ }{ \textbf T_{ i,j } } =d_{ j }^{'}

从而,定义文档间距离为:\min { \sum _{ i,j=1 }^{ n }{ \textbf T_{ i,j } } c\left( i,j \right) }

Transportation problem:

文档\textbf d\textbf d'之间的最小转移距离可以表示为如下线性规划问题:

WMD.jpg

wmd距离示意图:


WMD illustration.jpg

4.2 加速计算

WMD算法的最佳平均时间复杂度为O(p^{3}\text {log}p),对于高维情况和大量文档,计算是非常耗时的。

作者提出了两种时间复杂度低的lower bound,可以初步过滤掉绝大多数不满足的文档,从而避免不必要的WMD距离计算。

Word centroid distance:

wcd下界的推导如下,其时间复杂度为O(dp):

wcd.jpg

Relaxed word moving distance(RWMD):

wcd虽然计算速度很快,但是不够紧致(tight),作者提出了更加紧致(tighter)的RWMD下界:

就是在原问题的基础上,去掉一个约束条件:

RWMD.jpg

优化技巧是:

Optimal T*.jpg

从而:

optimize process.jpg

更进一步地,可以去掉另外一个约束,分布计算\sum _{ j }^{ }{ {\textbf T }_{ ij }^{ * }c\left( i,j \right) },取其较大者,作为下界:
l_{ r }\left( \textbf{d,d' }\right) =\max { \left( l_{ 1 }\left(\textbf{d,d'} \right) ,l_{ 2 }\left(\textbf{ d,d'} \right) \right) }

4.3 计算工作流

  1. 利用WCD对文档进行排序,找到最相似的前k个文档,这里可用KNN算法;
  2. 遍历留下的文档,计算RWMD,如果RWMD下界距离超过了当前第k个最近文档的距离,则抛弃;否则计算WMD距离并更新;这一步,基本能过滤掉95%的文档;

5. 总结

  1. WMD错误率低的原因在于很好地利用了word2vec词向量;
  2. WMD具有很好的可解释性,文档距离可分解为词的距离,具有很好的可视化和解释性;
  3. WMD可以将文档结构和词距离一并考虑,通过添加罚项。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,402评论 6 499
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,377评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,483评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,165评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,176评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,146评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,032评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,896评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,311评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,536评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,696评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,413评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,008评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,815评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,698评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,592评论 2 353

推荐阅读更多精彩内容