【word2vec学习笔记】1.什么是word2vec

@author: Panverson

背景和诞生

在word2vec诞生之前,利用机器学习方法解决自然语言处理问题使,一般都是用one-hot编码(可以翻译成“独热编码”)去表征词语。one-hot编码是一种稀疏矩阵,计算时会带来很多麻烦,因为:

  1. 向量的维度会随着句子的词的数量类型增大而增大;
  2. 任意两个词之间都是孤立的,无法表示语义层面上词汇之间的相关信息.

PS:当然,在深度学习中涉及到矩阵相乘,有人会说one-hot编码算起来十分麻烦(有多少单词这个矩阵就有多少维数)。事实上,one-hot编码算起来一点也不麻烦,因为它是稀疏的,矩阵中只有一个数字是1,其他都是0。学过线代的都知道,这种相乘的计算其实是很方便的。


one-hot计算示意

传统的独热表示仅仅将词符号化,不包含任何语义信息。如何将语义融入到词表示中?Harris 在 1954 年提出的“分布假说”为这一设想提供了理论基础:上下文相似的词,其语义也相似。Firth 在 1957年对分布假说进行了进一步阐述和明确:词的语义由其上下文决定。
所以我们可以将我们的任务拆解成两部分:

  1. 选择一种方式描述上下文;
  2. 选择一种“模型”刻画某个词(即“目标词”)与其上下文之间的关系。

什么意思呢?可以这么理解:
以CBOW模型为例,如果有一个句子“我今天听了周杰伦的歌”,在训练的时候,将“我今天听了周杰伦的”作为输入,预测出最后一个词是“歌”。
分布式表示的较大优点在于它具有非常强大的表征能力,比如n维向量每维k个值,可以表征k的n次方个概念。下图的神经网络语言模型(NNLM)采用的就是文本分布式表示。而词向量(word embedding)是训练该语言模型的一个附加产物,即图中的矩阵C。

文本的分布式表示

这个时候,word2vec就诞生了。其实,word2vec是词嵌入(word embedding)的一种方式。它将上文提到的one-hot的两个缺点解决了:

  1. 将vector每一个元素由整形改为浮点型,变为整个实数范围的表示。将原来稀疏的巨大维度压缩嵌入到一个更小维度的空间。
  2. 矩阵的每个维度都代表一定的语义。
    例如:
    对于训练好的几个词语,可能是这样的:


    word2vec

    可以得出这个结论:


    Man - King = Woman - Queen

    这就是word2vec的神奇所在。这个特性意味着Word2Vec所生成的词向量具有了语义推理能力。
    但很遗憾,我们自己去训练词向量的时候,其实很难复现这个结果出来(需要的计算资源实在是太庞大了)。幸运的是,对于小型的预料库,还是有一定的效果的。

两种模型

两个训练方案分别是CBOW和Skip-Gram,如图所示


两个模型

其中,CBOW通过上下文来预测当前词;而Skip-gram通过当前词预测上下文。至于原理,咱们下次再说。

参考资料

博客:
苏剑林. (2017, Apr 02). 《【不可思议的Word2Vec】 1.数学原理 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/4299
word2vec原始论文:

[1] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space. In Proceedings of Workshop at ICLR, 2013.
[2] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed Representations of Words and Phrases and their Compositionality. In Proceedings of NIPS, 2013.

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,884评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,755评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,369评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,799评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,910评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,096评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,159评论 3 411
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,917评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,360评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,673评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,814评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,509评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,156评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,123评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,641评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,728评论 2 351

推荐阅读更多精彩内容