《Aspect Level Sentiment Classification with Deep Memory Network》笔记

写在前面

网上已经有一篇笔记很好的记录了这篇论文《Aspect Level Sentiment Classification with Deep Memory Network》,见:西土城搬砖日常

笔者重新记录的目的是,把自己看的过程中的想法记录下来,力求行文更加清晰。

概述

读了论文《Aspect Level Sentiment Classification with Deep Memory Network》

这篇论文的知识点涵盖了:

  • 记忆网络(Memory Network)
  • 多层Attention 机制

应用场景跟上一篇分析的内容一样,都是多层次语义情感分析的。

大概框架

整体架构思路就是计算得到context的importance和文本表示,怎么计算呢?就是利用多层计算层进行计算,每个计算层又由MN和attention组合在一起。attention机制又分成了传统的content attention,和新提出来的location attention...

优点

  • 和目前最好的features+SVM对比,达到了state-of-art的水平
  • 和序列模型LSTM和attention+LSTM相比,表现要更好
  • 相同条件下,运行速度要比LSTM快15倍

memory network

memory network是Jason Weston在14年提出来的想法,Sainbayar Sukhbaatar在15年提出了让memory network进行end to end的训练方法,并在QA上取得了较好的效果。

关于memory network的相关内容可参考下面两篇论文:

大致思想:

a memory network consists of a memory m and four components I, G, O and R,

where m is an array of objects such as an array of vectors. 

Among these four components, I converts input to internal feature representation, 

G updates old memories with new input, 

O generates an output representation given a new input and the current memory state, 

R outputs a response based on the output representation.

MN的例子如下:

image

这里想要提到的是,O组件是可以包含多层计算层的。
计算层称为hop.主要原因是多层次的hop可以提取更多的抽象语义信息。

框架设计

整体框图如下:

image

word embedding:

这些word vectors包括context vectors和aspect vectors。

  • aspect vectors:

如果aspect word是单个词,aspect vectors就是aspect word的word embedding;如果aspect word是多个词组成的,aspect vectors就是几个词的embedding的平均值。

  • context word vectors:
image

即sentence中除了aspect word之外的所有词的word embedding堆叠(拼成一个矩阵d*n-1维)到一起,这就是模型中的memory。(n为句子的长度)

compute layer

  • 模型包括多个computational layers,每个computational layer包括一个attention layer和一个linear layer。
  • 第一个computational layer,attention layer的输入是aspect vector,输出memory中的比较重要的部分,linear layer的输入是aspect vector。第一个computational layer的attention layer和linear layer的输出结果求和作为下一个computational layer的输入;
  • 其它computational layer执行同样的操作,上一层的输出作为输入,通过attention机制获取memory中较重要的信息,与线性层得到的结果求和作为下一层的输入。
  • 最后一层的输出作为结合aspect信息的sentence representation,作为aspect-level情感分类的特征,送到softmax。

tips: 参数共享

It is helpful to note that the parameters of attention and linear layers are shared in different hops. Therefore,the model with one layer and the model with nine layers have the same number of parameters.

Attention

这里分为两类attention:

  • content attention
  • location attention

这里content attention跟以前的attention差不多,这里就直接列公式了:

每一层的输出向量为:

image

这里mi为记忆网络里面的第i个向量,并且,

image

打分函数,计算aspect与记忆网络里每个mi的分数:

image

再由打分函数得到的分值,得到权重(即attention值):

image

这里我们就想问了,这里记忆函数的mi是如何得来的呢?

这里就要开始讲论文提到的另一个attention了,location attention.

我们从直观上来看,通常情况下,与aspect word距离较近的context word对于相应aspect的情感倾向的判断更重要。于是就有了location attention。所谓的location attention其实就是把context word的位置信息加入到memory中。

作者一共提到了4种计算mi的方法模型,

image

ei是context vector, vi是location vector for word wi.

模型3,4中作为模型的一个参数,随机初始化,通过梯度下降学习得到。只是模型4中加了一层sigmoid函数。

训练过程

  • softmax
  • 交叉熵loss
  • BP
  • 随机梯度下降来更新参数

实验结果

数据

image

结果

image

时间

image

location attention对比

image

根据上图可以看出:

  • 随着computational layers的增多,分类准确率有提升;
  • 在computational layer数大于5的时候,四个模型准确率相差不大;
  • model 2计算量最小,准确率也不差。

计算单元层数和location信息的作用分析

image

从Table 4和Table 5对比可以看出:

  • 增加computational layer可以提取更abstractive的evidence(针对某个特定的aspect),更好的区分不同context word对特定aspect的贡献;
  • 引入location信息明可以更好地捕获针对特定aspect更重要的context信息。

写在最后

论文创新点在于将QA中常用的记忆网络结合attention,多层computing layers,应用于多层次语义情感分析。

下一步工作,研究记忆网络和这篇论文的复现代码。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,294评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,493评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,790评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,595评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,718评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,906评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,053评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,797评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,250评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,570评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,711评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,388评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,018评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,796评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,023评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,461评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,595评论 2 350

推荐阅读更多精彩内容