NLP—Word2vec词向量表达

原理:
word2vec原理(一) CBOW与Skip-Gram模型基础
word2vec原理(二) 基于Hierarchical Softmax的模型
word2vec原理(三) 基于Negative Sampling的模型

实验:
转载:https://www.zybuluo.com/hanxiaoyang/note/472184

个人理解:自然语言向量表达,用于比较词的相识度,位置词预测
过程: one hot 编码-》构建共现矩阵-》(巧妙采用Huffman编码树【离根节点近的节点出现概率越大】来做神经网络输出函数)-》调整theta 的值计算缺失的词(CBOW)或句子(Skip-Gram)
后期优化:负采样代替Huffman编码

问题:矩阵的svd分解意义

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 175,569评论 25 709
  • # 欢迎使用 Cmd Markdown 编辑阅读器 ------ 我们理解您需要更便捷更高效的工具记录思想,整理笔...
    raidery阅读 4,722评论 0 1
  • 姓名曹彩萍~公司丹阳明煌工具。 日精进打卡第 22天 《六项精进》1遍 《大学》...
    曹彩萍阅读 767评论 0 0
  • 距离毕业的时间不到三个月,但是在这期间还有遥遥无期的事情,我的毕设,我的小论文,我的大论文,我的成果,我的工作,以...
    e8e976845a84阅读 1,605评论 2 1
  • 我爱这雨天, 爱这天空苍茫的一片! 我的思绪没来由的跟着雨忧愁, 忧愁, 回忆的梗上, 谁不曾有, 披着情绪的星,...
    生活何止眼前的苟且阅读 1,248评论 1 1