论文阅读“k-Nearest Neighbor Augmented Neural Networks for Text Classification”

Wang Z, Hamza W, Song L. k-Nearest Neighbor Augmented Neural Networks for Text Classification[J]. arXiv preprint arXiv:1708.07863, 2017.

摘要导读

近年来,许多基于深度学习的模型被用于文本分类。然而,在训练的过程中缺乏对训练集中实例级信息的利用。在本文中,作者建议通过利用输入文本的k-nearest neighbor(kNN)信息来加强神经网络模型对文本嵌入的学习以更好的辅助分类任务。具体来说,提出的模型采用了一个神经网络,将文本编码为嵌入表示。此外,该模型还利用输入文本的k-近邻作为外部存储器,并利用它来捕捉训练集中的实例级信息。最终的分类预测是基于神经网络编码器和kNN memory的特征进行的。实验结果显示,提出的模型在所有数据集上都优于基线模型,甚至在几个数据集上击败了29层的神经网络模型;并且在训练实例稀少和训练集严重不平衡的情况下也显示出卓越的性能;该模型甚至可以很好的利用在半监督训练和转移学习等技术中。

模型浅析

提出的模型主要从训练集中提取全局和实例级信息来进行文本分类任务。为捕捉全局信息,训练了一个神经网络编码器,根据所有的训练实例及其类别信息将文本编码到一个嵌入空间。为了捕捉实例级的信息,对于每个输入的文本,从训练集中搜索其对应的k个近邻样本,然后将其作为外部存储器来增强神经网络。

上图中蓝色的data flow是传统的文本分类流程。余下的部分即为本文提出的kNN memory,即使用注意力机制来抽取实例级别的信息用于预测。可以形式化为如下:给定样本x和样本x的kNN\{x'_1,\cdots,x'_k,\cdots, x'_K\}以及对应的正确标签y\{y'_1,\cdots,y'_k,\cdots, y'_K\}。因此本文的任务是基于训练集估计一个条件概率Pr=(y|x,x'_1,\cdots, x'_K,y'_1,\cdots,y'_K),然后可以用于测试样本的标签:
\mathcal{A}(y)是所有可能标签的集合。

  • Text Encoder
    该模块用于对文本进行编码,主要分为两个步骤:(1)词表示step将所有的词表示为词嵌入或字符嵌入;(2)句子表示step则是使用CNN或LSTM将词嵌入序列压缩到一个固定长度的文本嵌入。
    在本模型中,使用LSTM对文本编码。首先在词表示阶段,作者为每个词构建了包含两个部分的d维向量:词嵌入表示和字母组成的嵌入表示。词的嵌入是用GloVe或word2vec预训练的单独的词的固定向量。字符组成的嵌入是通过将一个词中的每个字符(也表示为一个向量)输入LSTM来计算的。在句子表示步骤,应用双向LSTM(BiLSTM)来组成单词表示序列,然后将BiLSTM最后一个时间步骤的两个向量(包括前向和后向)连接起来作为最终的文本嵌入。
  • kNN Memory
    kNN Memory是提出模型的核心部分,目标是为每个输入文本从其kNN中获取实例级信息。该部分包括以下六个步骤。
    1、寻找kNN,对应图中黑色对应的data flow, 使用的BM25排序算法为每个样本选取k个近邻样本。
    2、使用Text Encoder对近邻集合中的每个样本进行编码,对应图中黄色的data flow。
    3、计算近邻关注分配,其目标是计算输入文本和嵌入空间中的每个K个邻居之间的相似性(邻居关注),对应途中灰色的data flow。令,样本x和其第k个近邻样本x'_k的embedding表示记录为hh'_k,都是由Text Encoder产生的l维的隐含特征向量。理论上而言,所有的相似性度量函数都适用。本文作者适用的是multi-perspective cosine matching来计算两个向量之间的相似性
    其中W \in \mathcal{R}^{I \times l}是一个可训练的参数矩阵,I是控制perspective 数量的超参数,返回的s_k是一个I维的向量
    每个元素s_k^i \in s_k表示在第i个perspective中hh'_k之间的相似度,由两个向量之间的余弦相似度计算得到:
    其中\circ表示两个向量对应元素相乘,W_i是矩阵W中得第i行,用于控制第i个perspective,并为l维文本嵌入空间的不同维度分配不同的权重。当I=1时,一个样本与每个对应的邻居样本仅包含一个相似度值,上图中的neighbor attention就是I=1的情况。
    4、计算基于关注度的标签分布,基于近邻关注分配,权重化的将标签分布进行相加,如图中的绿色data flow。形式化来说,将文本对应的标签转化为one-hot标签分布,分别计算K个近邻在第i个perspective对应的权重化的标签分布
    最终的multi-perspective关注度的标签分布\hat{y}I个perspective的标签分布进行拼接\hat{y}=[\hat{y}_1, \cdots, \hat{y}_i, \cdots, \hat{y}_I]
    5、计算基于关注度的文本嵌入表示,基于近邻关注分配,权重化的将文本嵌入进行相加,如图中的橙色data flow。类似的,第i个perspective中K个近邻的文本嵌入表示为:
    最终来自I个perspective的表示即为h=[\hat{h}_1, \cdots, \hat{h}_i, \cdots, \hat{h}_I]
    6、可以说,前5步都是在为最终的分类任务学习更好的文本表示,有来自文本本身的,有来自文本对应K个近邻的标签和文本信息。即:
序号 符号表示 描述
1 h 当前文本对应的text embedding
2 \hat{y} 当前文本对应的kNN所生成的基于关注度的标签分布
3 \hat{h} 当前文本对应的kNN所生成的基于关注度的text embedding

最后的步骤时将这些特征向量都拼接起来,用于学习分类预测。即将[h,\hat{y},\hat{h}]输入最终的分类器得出预测结果。在测试集上,则还是在训练集的样本中构造kNN memory,用于预测。


将训练集中的信息用的很全面。简单且有效。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,539评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,911评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,337评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,723评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,795评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,762评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,742评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,508评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,954评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,247评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,404评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,104评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,736评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,352评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,557评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,371评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,292评论 2 352

推荐阅读更多精彩内容