Inner Attention模型在深度问答系统中的应用

Attention机制在时序模型中的应用,已经被证明能够提升模型的性能。本文参考《Inner Attention based Recurrent Neural Networks for Answer Selection》,该论文以时序模型输出状态设计Attention为基线(QA_LSTM_ATTENTION),提出了三种不同的内部Attention设计方案和一种优化方案。本文实现了论文中的两种方案即IARNN-WORD和IARNN-GATE。

传统的Attention机制被应用于特征抽取器之后,例如QA_LSTM_ATTENTION。由于RNN算法用于处理时序特征的特点,隐含状态迭代更新,因此t时刻的状态包含了从开始到t时刻的所有信息。当我们加入问题的attention信息用于找出最有用的信息的时候,往往靠近时序末端的特征因为包含了之前的所有信息而更容易被挑选出来。综上所述,传统的attention机制更加偏向于后面的状态特征。

为了处理上述的偏差问题,作者考虑将attention加在特征抽取之前,即输入层。文章设计了四种不同的方案,本文挑选了其中的IARNN-WORD和IARNN-GAGE算法。

图1:IARNN-WORD算法Attention使用公式

其中IARNN-WORD算法结构图如下:

图2:IARNN-WORD模型

IARNN-WORD算法的改变主要来自于将attention的计算放在了答案特征抽取之前,避免出现传统attention算法计算t时刻权值时,包含了之前时刻的特征信息。算法最后对每个时刻的特征输出求取平均来作为最后的特征(综合考虑多个时刻的特征,避免出现特征信息丢失,但是容易引入噪声覆盖信号特征),这里实现采用的是max-pooling,即将attention权值加在每个时刻的特征输出(只拿主要信息,丢掉了其他的低频特征和噪声)。

IARNN-WORD算法的实现较为直观和简单,文章还设计了另一种attention机制方法,即将attention的计算放在了GRU模块的内部(GRU算法的介绍参照这里),GRU模块主要由两个门函数控制信息的传输,文章通过将attention机制加入门函数中来影响时序信息的传输。其计算公式如下:

图3:IARNN-GATE算法Attention计算公式

IARNN-GATE算法结构如下:

图4:IARNN-GATE模型

IARNN-WORD算法实验步骤

1:本次实验采用insuranceQA数据,你可以在这里获得。实验之前首先对问题和答案按字切词,然后采用word2vec对问题和答案进行预训练(这里采用按字切词的方式避免的切词的麻烦,并且同样能获得较高的准确率)。

2:由于本次实验采用固定长度的LSTM,因此需要对问题和答案进行截断(过长)或补充(过短)。

3:实验建模Input。本次实验采用问答三元组的形式进行建模(q,a+,a-),q代表问题,a+代表正向答案,a-代表负向答案。insuranceQA里的训练数据已经包含了问题和正向答案,因此需要对负向答案进行选择,实验时我们采用随机的方式对负向答案进行选择,组合成(q,a+,a-)的形式。

4:将问题和答案进行Embedding(batch_size, sequence_len, embedding_size)表示。

5:对问题采用LSTM模型计算特征r_q(sequence_len, batch_size, rnn_size),对时序的LSTM特征进行选择,这里采用max-pooling。

6:采用问题的特征r_q和答案的输入根据图1的attention计算方式,计算经过attention加权之后的输入。

7:采用LSTM模型计算答案的特征,文章中对LSTM模型计算的特征采用average的方式获得最后的特征,这里采用max-pooling。

8:根据问题和答案最终计算的特征,计算目标函数(cosine_similary)。

目标函数

IARNN-GATE算法实验步骤

1:本次实验采用insuranceQA数据,你可以在这里获得。实验之前首先对问题和答案按字切词,然后采用word2vec对问题和答案进行预训练(这里采用按字切词的方式避免的切词的麻烦,并且同样能获得较高的准确率)。

2:由于本次实验采用固定长度的GRU,因此需要对问题和答案进行截断(过长)或补充(过短)。

3:实验建模Input。本次实验采用问答三元组的形式进行建模(q,a+,a-),q代表问题,a+代表正向答案,a-代表负向答案。insuranceQA里的训练数据已经包含了问题和正向答案,因此需要对负向答案进行选择,实验时我们采用随机的方式对负向答案进行选择,组合成(q,a+,a-)的形式。

4:将问题和答案进行Embedding(batch_size, sequence_len, embedding_size)表示。

5:根据通用的GRU模型计算问题的特征r_q。

6:根据图3公式对GRU模型结构进行改造。

7:采用问题的特征r_q和答案的输入根据图4的计算方式,获得经过attention加权的GRU特征,文章中对模型计算的特征采用average的方式获得最后的特征,这里采用max-pooling。

8:根据问题和答案最终计算的特征,计算目标函数(cosine_similry)。

目标函数

参数设置:

    IARNN-WORD算法参数设置:

        1:、这里优化函数采用论文中使用的SGD(采用adam优化函数时效果会差大概1个点)。

        2、学习速率为0.1。

        3:、训练150轮,大概需要7个小时的时间。

        4、margin这里采用0.2,其它参数也试过0.15、0.1效果一般。

        5、这里训练没有采用dropout和l2约束,之前试过dropout和l2对实验效果没有提升,这里就没有采用了。

        6、batch_size为20。

        7、这里问题和答案长度都采用100字。

        8、rnn_size为300(继续调大没有明显的效果提升,而且导致训练速度减慢)

        9、字预训练采用100维。

    IARNN-GATE算法参数设置:

        1:、这里优化函数采用论文中使用的SGD(采用adam优化函数时效果会差大概1个点)。

        2、学习速率为0.1。

        3:、训练150轮。

        4、margin这里采用0.2,其它参数也试过0.15、0.1效果一般。

        5、这里训练没有采用dropout和l2约束,之前试过dropout和l2对实验效果没有提升,这里就没有采用了。

        6、batch_size为32

        7:这里问题长度保持30字、答案100字。

        8、rnn_size为200(继续调大没有明显的效果提升,而且导致训练速度减慢)

        9、字预训练采用100维。

实验结果对比:

IARNN-WORD :0.6911

IARNN-GATE :0.6916

如果有任何问题欢迎发送邮件到lirainbow0@163.com。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容