word2vec [3] word2vec

Word2vec:

单词的向量表示,如果不清楚单词的向量表示是什么,可以参考第一篇。

word2vec通过训练一个神经网络,得到神经网络的权重作为单词的vector。

为了得到词的vecto,需要用一种更好的方式来得到,word2vec的方式考虑了该词和上下词之间的关系。所以得到的词向量可以更好的表达词的含义和词之间的关系。

通常训练word2vec的方法分类两大类分别是skip-gramCBOW

  • 如果是用一个词语作为输入,来预测它周围的上下文,那这个模型叫做『Skip-gram 模型』

  • 而如果是拿一个词语的上下文作为输入,来预测这个词语本身,则是 『CBOW 模型』

Word2vec 本质上是一种降维操作——把词语从 one-hot encoder 形式的表示降维到 Word2vec 形式的表示。

1. Skip-gram

Skip-gram 输入词为中间词,输出为周围词。

image

2.CBOW

CBOW 是用上次文的词预测这一个词

image

输入和输出。CBOW 和skip-gram.

CBOW对小型数据库比较合适,而Skip-Gram在大型语料中表现更好。

衡量次想了的准确性

CBOW(o-c)给定上下文预测中间

Skip-gram(c-o)给的中间预测上下文

变种

1.hierarchical softmax(加速)

The hierarchical softmax uses a binary tree representation of the output layer with the W words as its leaves and, for each node, explicitly represents the relative probabilities of its child nodes. These define a random walk that assigns probabilities to words.

2.negative sampling

Noise Contrastive Estimation (NCE),NCE posits that a good model should be able to differentiate data from noise by means of logistic regression.

3.Subsampling of Frequent Words

the most frequent words can easily occur hundreds of millions of times (e.g., “in”, “the”, and “a”). Such words usually provide less information value than the rare words.

Skip-gram(c-o)给的中间预测上下文

Reference :

word2vec Parameter Learning Explained

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • BERT发展史(三)全方位多角度理解Word2Vec 建议先阅读之前两篇文章: BERT发展史(一)从词嵌入讲起 ...
    LITD阅读 8,851评论 0 13
  • 1. 导入   这是语言表示系列的第1篇,主要讲述了分布式表示里的Word2vec方法。该系列目前暂定有4篇语言的...
    brucep3阅读 8,468评论 0 5
  • 前面的文章主要从理论的角度介绍了自然语言人机对话系统所可能涉及到的多个领域的经典模型和基础知识。这篇文章,甚至之后...
    我偏笑_NSNirvana阅读 14,788评论 2 64
  • 选择逃避或是凝视弱点的结果大有不同,以前的我是尽量逃避自己的弱点,也就说那些我认为自己不会、不擅长的事情坚决不去接...
    向阳i阅读 1,638评论 0 0
  • 一、把工作和成长并联 以前我也听说了,use it,利用他。遇到生活中的挫折,不要低头,要利用他。把坏事变成好事,...
    super欣颖阅读 3,398评论 2 3