语义相似计算资料

文章

LDA

DSSM

SimNet

CLSM

CNN

评测比赛

工具

PPT

论文

Convolutional Neural Networks for Sentence Classification (EMNLP 2014)

n*k表示句子(k是词向量维度) -> 多channel卷积层 -> max-over-time pooling -> 全连接

Neural Machine Translation by Jointly Learning to Align and Translate (arxiv 2014, ICLR 2015)

最早的一篇,应用在翻译上,动机是告诉decoder现在翻译哪一部分,因为大体上两个句子语义上有对应关系 soft alignment?

采用biRNN

Encoding Source Language with Convolutional Neural Network for Machine Translation (ACL 2015)

tagCNN & inCNN

A Hierarchical Neural Autoencoder for Paragraphs and Documents (ACL 2015) note!!

LSTM auto-encoder + Attention

分层结构,捕捉句子组成成分或结构

中间层有句子状态表示,句子向量?

A Neural Attention Model for Abstractive Sentence Summarization (EMNLP 2015)
Abstractive Sentence Summarization with Attentive Recurrent Neural Networks (NAACL 2016)

姊妹篇, Facebook团队

两篇paper的模型框架都是seq2seq+attention,最大的区别在于选择encoder和decoder的模型,第一篇的模型偏容易一些,第二篇用了rnn来做。论文解读

Teaching Machines to Read and Comprehend (NIPS 2015)

Google DeepMind团队

有监督训练,两个attention模型: Attentive Reader 和 Impatient Reader,后者每个token都和query构成一组输入,相当于反复读取,逐渐理解文章

Skip-Thought Vectors(NIPS 2015) note!!

无监督,句子encoder

通过1万多本书中连续的句子来训练

借鉴了word2vec中skip-gram模型,通过一句话来预测这句话的上一句和下一句

采用了GRU-RNN作为encoder和decoder,encoder部分的最后一个词的hidden state作为decoder的输入来生成词。这里用的是最简单的网络结构,并没有考虑复杂的多层网络、双向网络等提升效果。decoder部分也只是一个考虑了encoder last hidden state的语言模型,并无其他特殊之处,只是有两个decoder,是一个one maps two的情况,但计算方法一样。论文解读

Deep Learning for Semantic Similarity(实验报告 2015)

有监督,衡量两个句子的相似性

实验数据:SemEval-2015 Task 2, RNN效果最好

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention

Context Aware Document Embedding (arxiv 2017)

CNN+GRU STS任务上取得与doc2vec相似的效果,但是更有效率,不需要大量外部语料?一种加强的idf权重,可以捕捉文档子主题层的关键词

A Structured Self-attentive Sentence Embedding (ICLR 2017) note!!

双向LSTM+Attention

三个实验:预测年龄,情感分析,文本蕴含

提出了一种句子表示学习的”internal attention”的方式,并且采用了惩罚项来保证从不同方面来学习attention矩阵,使每个维度的attention向量的相关性降低,并采用了可视化方式来说明模型效果, 可以应用到各种序列化学习的问题当中。论文解读

[Efficient Summarization with Read-Again and Copy Mechanism] (arxiv 2016, ICLR 2017)

生成式摘要任务 论文解读

两个问题:

  • 一是在encoder的过程中在计算每一个词的向量表示或者隐层状态时仅仅考虑了该词之前的一些词,导致了次优化
  • 二是UNK的问题(就是不在词表范围的词)

两个改进:

  • 首先提出一个read-again机制,就是在encoder计算每一个词的表示之前先阅读一遍输入序列,该想法的出发点也符合人的大脑机制,在阅读一篇文章时,要读完一遍才能去确认文中哪些词是重点。
  • 采用copy机制来处理OOV问题,同时可以使用非常小的词库,提高了解码的效率。

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention (arxiv 2016)

有监督,识别文本蕴含,biLSTM average pooling, Inner-Attention
论文解读

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 阳光撒了一地 时间惊扰了 静谧的湖水 在小屋中 书一行字 读几页书 咖啡有些苦涩 放点糖 别太多 中庸就好 是苦...
    诗歌刘振扬阅读 968评论 0 3
  • 回家看到了两个妹妹给爸妈买的按摩椅和足疗机。妈妈让我赶紧体验一下足疗,十五分钟。又让我去按摩两个回合...
    心有佳期阅读 2,166评论 0 0
  • 北京,即使漂泊不定,也可安放青春。 最近,面临就业的问题大家都议论纷纷,我想每个人都有自己的追求,都有自己的生活。...
    番桃阅读 2,726评论 0 0
  • 云付
    be23ed185a7b阅读 619评论 0 0