Word2Vec Model

1. 介绍

自然语言处理的一个重要方法是将自然语言处理问题转化为机器学习问题。转换为机器学习问题的第一个步骤,是将自然语言数值化, 简单的说就是如何用数学的语言去表示一个词,一个句子,一篇文章。早期人们将词汇表中的单词按照索引编号,再用one-hot编码去表示句子。这样做的好处是非常的简单,而且经过one-hot编码之后的文章都是固定长度的,这也为后续的数据处理带来了许多方便。但是,one-hot编码的劣势也是非常明显的,第一,不能表示词序,第二,不能展现单词与单词之间的关系, 第三,当词汇表非常庞大的时候而文章又比较短的时候就会造成矩阵过分稀疏和维度灾难。 word2vec的引入在很大程度解决了one-hot编码的劣势。word2vec顾名思义就是完成了词到向量的映射;把每一个词映射到一个固定维度的低维向量中,且向量的表示不是随机的,相同的词性在向量表达上比较相似,也就有相近的向量距离(可以是欧式距离或者余弦距离等)。word2vec利用无监督的深度学习方法,只需要投入文本,学习的过程无需人工干预。

2. 两个模型(可选其一)

在语言模型上,word2vec可以分为两类,CBOW 和 Skip-Gram。CBOW的思想是利用上下文去预测中间的词,skip-gram则是利用中间的词去预测上下文

2.1 CBOW 模型

two models

以CBOW 为例, 整个算法的目的就在于:


CBOW cost

在细节之外记住我们的目标: 用内容预测单词。在构建这个模型的过程中顺带会优化词向量,但是这个顺带的副产品却是我们真正需要的。我们需要时刻明确目标:优化代价函数,这样才不会被word2vec冗杂的细节问题迷惑,意识到这一点非常重要。

2.2 Skip-gram Model

skip-gram 与CBOW 非常相似,不同的是skip-gram 的目的是用中心词预测周围词,表现在代价函数就是把 | 左右调换顺序。

3 两套框架(可选其一)

image.png
image.png

4.Hierarchical Softmax & CBOW

https://arxiv.org/pdf/1411.2738.pdf
Hierarchical softmax是一种高效计算softmax 的方法,模型使用二叉树表示所有的单词,在这个模型中,所有的单词被表示在二叉树的叶子节点上。可以证明的是,假如词汇表的大小是||D||, 则二叉树一共有||D|| 个叶子节点和||D|| - 1 个非叶子节点。从根节点到每一个叶子节点只有一个唯一的路径,这条路径的长度用来刻画单词在语料库中出现的概率,路径越长,则词频越低(霍夫曼树的思想)。

图四 HS

在HS 的输出结果中,并没有输出单词的向量表示形式。取而代之的是,||D|| -
1 个内部节点(innear node)具有自己的表示向量:



输出单词的概率被定义为:


公式一

公式二

现在让我们用一个简单的实例来理解这个算法,看到图四,假设我们要计算w_t 作为输出单词的概率,我们定义作为输出单词的概率是从根节点root处一直走到叶子节点的概率,我们定义,在内部节点n走到左子树的概率定义为:
公式三

相应的, 在内部节点n 处走到右子树的概率就可以定义为:

公式四

那么,我们从图四中的根节点一路走到w_2的概率就可以表示为:

公式五

我们不难确定:

公式六

现在,我们就可以用求导数的方法来优化内部节点的向量表示了,为了简单起见,我们先从一个单词内容的模型出发,从one-word context model 拓展到CBOW 和 skip-gram 模型就是一件比较简单的事情了。
为了后续表达的简便,我们定义:

公式七

在每一次的训练实例中,error function(代价函数)可以被定义为:

公式八

在这个问题中,我们首先将v_j * h 视为变量, 并对其进行求导,这样,我们有:

公式九
补充解释

下一步,我们对内部节点的向量表示进行求导,于是有:

公式10

这样,我们就可以得出新的内部节点的向量表示了:

公式11

这样,我们就在一次训练过程中更新了全部内部节点上的向量的表示。
紧接着,我们知道h 作为隐层的输出,直接与输入的向量相关,我们对h 求偏导数,就可以得到输入向量的最佳表示:

公式12

使用EH的值,我们就可以直接进行优化输入向量的表示了。
以HS & CBOW model 作为例子介绍word2vec的一般思想。 word2vec 迄今为止主要以 { Skip-gram , CBOW } {HS, Negative Sampling}的组合为主构建架构,在未来有需要的时候,还是要拿出来继续学习的。

PLACEHOULDER for Skip-Gram, NS etc...

非常棒的资源:
word2vec中的数学
http://mccormickml.com/assets/word2vec/Alex_Minnaar_Word2Vec_Tutorial_Part_II_The_Continuous_Bag-of-Words_Model.pdf
https://arxiv.org/pdf/1411.2738.pdf

Gensim 的word2vec 工具使用

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,734评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,931评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,133评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,532评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,585评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,462评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,262评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,153评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,587评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,792评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,919评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,635评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,237评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,855评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,983评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,048评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,864评论 2 354

推荐阅读更多精彩内容