卷积神经网络在NLP关系抽取任务中的应用

CNN用于自动特征学习,一般在图像任务中应用比较广泛,在NLP中出现的频率可能不及CV任务,但在某些场景下依然能够发挥不错的效果。下面将根据基于论文《Classifying Relations by Ranking with Convolutional Neural Networks》阐述CNN与关系抽取任务之间如何碰撞出火花


论文中大概的流程可分为以下三步:(1)将句子中的词转化为可以进行卷积操作的词向量,即我们熟悉的Embedding过程。(2)进行卷积操作后得到该句子的向量表示。(3)对句子的向量进行关系的分类。下面将详细解释各步骤的原理和tricks


原理图

(1)Embedding操作

word embedding操作是NLP任务的基础,只有将语言中的字词转化成数字向量才能进行运算,本文也是如此。
在论文中的embedding分为两个过程,分别是word embeddings 和 word position Embeddings过程。

word embeddings

本过程一句话概括就是根据需被转换的单词的索引(或位置)提取出向量表中特定行的数字进而组合成一个向量用来表示该单词。
将一个句子表示为x,句子中的第i个词表示为W_i,则
x={w_1,w_2,...w_N}
再令每个单词转化成向量后表示r^{w_i},则整个句子向量化后表示为
emb_x=r^{w_1},r^{w_2}...r^{W_N}
令embedding转化矩阵为W^{wrd}∈R^{d^w×V}每个单词的词嵌入过程就是从这个矩阵中提取出相对应的行,其中d^w是单词转化为数字向量后该向量的长度,V是总的单词表的大小。embedding的过程可以用以下式子表示,简而言之就是用一个对应位置的one-hot向量v^wW^{wrd}矩阵相乘
r^w=W^{wrd}v^w

word position embeddings

句子中单词的位置顺序对于意思的表达很重要,该论文使用了position embedding的方法导入了每个单词相对于两个目标词的位置信息。比如下面这个句子,leftcar的距离为-1,与plant的距离为2。
The [car] left the [plant].
将这两个距离分别映射到一个维度为d^wpe的向量得到wp_1wp_2,再将这两个向量进行拼接得到某单词的最终位置向量
wep^w=[wep_1,wep_2]
最后将前面得到的word embedding 和word position emb 再进行拼接得到整个句子的表示
emb_x=[r^{w_1},wpe^{w_1}],[r^{w_2},wpe^{w_2}]...[r^{w_N},wpe^{w_N}]

(2)sentence Representation操作

此过程的目的是为了获得句子x的向量表示r_x,此时很自然地可以想到我们需要面临的两个问题:(1)句子的长度是变化的而我们是用一个固定长度的r_x去表示它;(2)包含句子的关键意思的单词有可能出现在该句子的任意位置。
sentence representation的过程具体分为以下几步

  1. 规定一个窗口大小k,挑出在某个单词的前后k的范围内的单词构成一个局部词块z_n。这一步的目的是为了学习局部特征。
    z_n=(r^{w_n-(k-1)/2},...,r^{w -n+(k-1)/2})
    注意:为了保证取出来z_n词块数与原句子中的单词相对应(数目相等),需要在句首句尾的单词作(k-1)/2的padding操作。
  2. 接下来便进行卷积操作了。令卷积核为W_1∈R^{d_c×d_wk},用这个卷积核对每一个词块z_n∈R^{d_wk}进行卷积运算(相当于权值共享了),则每个词块得到以一个d_c维的向量。
  3. 将这些词块的向量按照索引位置进行分组,比如0组表示将所有词块向量中索引为0的数字挑出来归到一组,1组表示将所有词块向量中索引为1的数字挑出来归为一组,后面以此类推,共有d_c组。然后从每组中挑选出最大的数字放到r_x向量的相应位置中,比如0组最大的数字就放到r_x[0]中,后面依次类推。形式化表达如下
    r_x[j]=max[f(W^1z_n+b^1)]_j

(3)class score

最后一步就是根据句子的向量表达来计算每种类别的得分。每个关系类别都会有一个权重矩阵,记为[W_{class}]c∈R^{d_c}则该句子对应每个类别的得分如下式计算
s_θ(x)_c=r^T_x[W_{class}]c

(4)损失函数的设计

论文中损失函数的设计也颇为巧妙,每句话的训练都输入一个正样本类别y^+∈C和一个负样本c^-∈C(实际是从所有的负样本中计算并挑出一个最最相似的作为负样本类别),loss function 如下所示
L=log(1+exp(γ(m^+-s_θ(x)_y^+))+log(1+exp(γ(m^-+s_θ(x)_c^-))
其中m^+m^-是边缘参数,而c是个扩展因子,有助于加大对分类错误的惩罚。负类别的挑选如前面所述,
c^-=argmax_{c∈C;c≠y^+} s_θ(x)_c

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 230,825评论 6 546
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 99,814评论 3 429
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 178,980评论 0 384
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 64,064评论 1 319
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 72,779评论 6 414
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 56,109评论 1 330
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 44,099评论 3 450
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 43,287评论 0 291
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 49,799评论 1 338
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 41,515评论 3 361
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 43,750评论 1 375
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 39,221评论 5 365
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 44,933评论 3 351
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 35,327评论 0 28
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 36,667评论 1 296
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 52,492评论 3 400
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 48,703评论 2 380