2018· ACL · Unsupervised Learning of Sentence Embeddings using Compositional n-Gram Features

2018· ACL · Unsupervised Learning of Sentence Embeddings using Compositional n-Gram Features

想法来源:无监督的学习方法的两个方法入手:鲁棒性、简单有效。相当于CBOW的改版,但是是用在sentence的表示上。

价值

方法:改进了CBOW在大数据集上的表现,去掉了高频词的影响。

缺点

详细方案

  • 首先,句子的最终表示:


    -c450

    其中R(S)是S中所有的n-gram表示,当然n也可以取1。|R(S)|表示n-gram的数量

  • 其次,下采样方法
    -c350

    f_w是词w的频率规范化后的
  • 正采样方法


    -c350

以上两种采样方法,可以减小高频词影响。

  • 去除高频词的影响
    -c450

    其中的l表示:
    -w150

数据集
训练

  1. Toronto book corpus
  2. Wikipedia sentences
  3. tweets
    测试
    movie review sentiment (MR)
    product reviews (CR)
    subjectivity classification (SUBJ)
    opinion polarity (MPQA)
    question type classification (TREC)

实验

  • 首先看看在下游任务的表现


    image
  • 无监督任务的表现:Pearson/Spearman


    image
  • 对比最好的结果所需要的训练时间


    image
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容