技术-聊天机器人-word2vec学习笔记

词向量(http://www.shareditor.com/blogshow/?blogId=99

词向量:是这样的一种向量[0.1, -3.31, 83.37, 93.0, -18.37, ……],每一个词对应一个向量,词义相近的词,他们的词向量距离也会越近(欧氏距离、夹角余弦)

训练词向量(无监督学习,也就是没有标注数据,给我n篇文章,我就可以训练出词向量 )

词向量表达方式(http://www.shareditor.com/blogshow/?blogId=100

localist representation  ( 稀疏表达)

典型的案例就是one hot vector

distributed representation(分布式表达)

word embedding表示的是一种“降维”的嵌入

word2vec学习笔记(C:\Users\WJH\Desktop\桌面\speech code\学习文档)

word2vec定义: 通过训练,可以把对文本内容的处理简化为K 维向量空间中的向量运算,而向量空间上的相似度可以用来表示文本语义上的相似度。

(word2vec的本质,它其实是通过distributed representation的表达方式来表示词,而且通过降维的word embedding来减少计算量的一种方法)

统计语言模型:1、n-gram 模型

n=1 时,即上下文无关模型,这里 n-gram 一般认为是 N>=2 是 的上下文相关模型。当 n=2 时,也称为 Bigram 语言模型(依赖于前n-1个词)

问题:

1. n-gram 语言模型无法建模更远的关系,大部分研究或工作都是使用 Trigram,就算使用高阶的模型

2.无法建模出词之间的相似度, 比如“白色的汽车”经常出现,那完全可以认为“白色的轿车”也可 能经常出现

3.训练语料里面有些 n 元组没有出现过,其对应的条件概率就是

0,(解决:方法一为平滑法。最简单的方法是把每个 n 元组的出现次数加 1,方法二是回退法。有点像决策树中的后剪枝

方法,即如果 n 元的概率不到, 那就往上回退一步,用 n-1 元的概率乘上一个权重来模拟。 )

2、n-pos 模型

它将词按照其语法功能进 行分类,由这些词类决定下一个词出现的概率。

3、基于决策树的语言模型

而统计决策树中每个结点的决策规则是一 个上下文相关的问题 ,也可以是词性分类

word2vec实现

使用两种模型  1、CBOW模型   ( 已知当前词的上下文的前提下预测当前词

输出层用霍夫曼树(不太懂参考http://www.shareditor.com/blogshow/?blogId=100

2、Skip-gram模型(已知当前词的情况下预测上下文

概率计算问题采用负采样算法 (不太懂)参考(www.hankcs.com/nlp/word2vec.html)

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 前面的文章主要从理论的角度介绍了自然语言人机对话系统所可能涉及到的多个领域的经典模型和基础知识。这篇文章,甚至之后...
    我偏笑_NSNirvana阅读 14,050评论 2 64
  • 1.NLP当前热点方向 词法/句法分析 词嵌入(word embedding) 命名实体识别(Name Entit...
    __Aragorn阅读 6,080评论 1 9
  • Word2Vec学习笔记之基础篇 概述 自然语言处理属于深度学习中的一个分支,但是相对其他分支发展一直比较缓慢,在...
    AC手环阅读 3,697评论 0 12
  • 盘算着回学校的日子,突然想起你,想到马上就能见到你了,一阵激动。猛地想起拒绝我之后你已经不愿意见我了……
    lovecy阅读 230评论 0 0
  • 最近新公司学习相应的代码逻辑,使用SVN作为项目的托管工具,实属不大习惯,尤其对于用惯了git的人来说。一度想...
    jrue阅读 9,008评论 2 1