【NLP保姆级教程】手把手带你HAN文本分类(附代码)

本文首发于微信公众号:NewBeeNLP


继续之前的文本分类系列


今天来看看网红Attention的效果,来自ACL的论文Hierarchical Attention Networks for Document Classification

论文概述

上图就是论文中文本分类模型的整体框架,可以看出主要分为四个部分:

  • word encoder  (BiGRU layer)
  • word attention (Attention layer)
  • sentence encoder  (BiGRU layer)
  • sentence attention (Attention layer)
  • GRU是RNN的一个变种,使用门机制来记录当前序列的状态。在GRU中有两种类型的门(gate):reset gate和update gate。这两个门一起控制来决定当前状态有多少信息要更新。

    reset gate是用于决定多少过去的信息被用于生成候选状态,如果Rt为0,表明忘记之前的所有状态:

    根据reset gate的分数可以计算出候选状态:

    update gate是用来决定有多少过去的信息被保留,以及多少新信息被加进来:

    最后,隐藏层状态的计算公式,有update gate、候选状态和之前的状态共同决定:

    好啦,下面具体来看看论文里的模型:

    1、word encoder layer

    首先,将每个句子中的单词做embedding转换成词向量,然后,输入到双向GRU网络中,结合上下文的信息,获得该单词对应的隐藏状态输出

    2、word attention layer

    attention机制的目的就是要把一个句子中,对句子表达最重要的单词找出来,赋予一个更大的比重。

    首先将word encoder那一步的输出得到的输入到一个单层的感知机中得到结果作为其隐含表示

    接着为了衡量单词的重要性,定义了一个随机初始化的单词层面上下文向量,计算其与句子中每个单词的相似度,然后经过一个softmax操作获得了一个归一化的attention权重矩阵,代表句子i中第t个单词的权重:

    于是,句子的向量Si就可以看做是句子中单词的向量的加权求和。这里的单词层面上下文向量是随机初始化并且可以在训练的过程中学习得到的,我们可以把它看成是一种query的高级表示:“句子中哪些词含有比较重要的信息?”

    3、sentence encoder

    通过上述步骤我们得到了每个句子的向量表示,然后可以用相似的方法得到文档向量

    4、sentence attention

    和词级别的attention类似,作者提出了一个句子级别的上下文向量,来衡量一个句子在整篇文本的重要性。

    5、softmax

    上面的v向量就是我们得到的最后文档表示,然后输入一个全连接的softmax层进行分类就ok了。

    6、模型效果

    代码实现

    定义模型

    class HAN(object):
    def __init__(self, max_sentence_num, max_sentence_length, num_classes, vocab_size,
    embedding_size, learning_rate, decay_steps, decay_rate,
    hidden_size, l2_lambda, grad_clip, is_training=False,
    initializer=tf.random_normal_initializer(stddev=0.1)):
    self.vocab_size = vocab_size
    self.max_sentence_num = max_sentence_num
    self.max_sentence_length = max_sentence_length
    self.num_classes = num_classes
    self.embedding_size = embedding_size
    self.hidden_size = hidden_size
    self.learning_rate = learning_rate
    self.decay_rate = decay_rate
    self.decay_steps = decay_steps
    self.l2_lambda = l2_lambda
    self.grad_clip = grad_clip
    self.initializer = initializer

    self.global_step = tf.Variable(0, trainable=False, name='global_step')

    # placeholder
    self.input_x = tf.placeholder(tf.int32, [None, max_sentence_num, max_sentence_length], name='input_x')
    self.input_y = tf.placeholder(tf.int32, [None, num_classes], name='input_y')
    self.dropout_keep_prob = tf.placeholder(tf.float32, name='dropout_keep_prob')

    if not is_training:
    return

    word_embedding = self.word2vec()
    sen_vec = self.sen2vec(word_embedding)
    doc_vec = self.doc2vec(sen_vec)

    self.logits = self.inference(doc_vec)
    self.loss_val = self.loss(self.input_y, self.logits)
    self.train_op = self.train()
    self.prediction = tf.argmax(self.logits, axis=1, name='prediction')
    self.pred_min = tf.reduce_min(self.prediction)
    self.pred_max = tf.reduce_max(self.prediction)
    self.pred_cnt = tf.bincount(tf.cast(self.prediction, dtype=tf.int32))
    self.label_cnt = tf.bincount(tf.cast(tf.argmax(self.input_y, axis=1), dtype=tf.int32))
    self.accuracy = self.accuracy(self.logits, self.input_y)

    手机浏览代码不太舒服,完整代码就不贴了,老规矩后台自取吧~

    「完整代码可以在公众号后台回复"HAN"获取。」

    END -

      Transformers Assemble(PART II)

      BERT源码分析(PART I)

      Transformers Assemble(PART I)

    ©著作权归作者所有,转载或内容合作请联系作者
    • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
      沈念sama阅读 219,427评论 6 508
    • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
      沈念sama阅读 93,551评论 3 395
    • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
      开封第一讲书人阅读 165,747评论 0 356
    • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
      开封第一讲书人阅读 58,939评论 1 295
    • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
      茶点故事阅读 67,955评论 6 392
    • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
      开封第一讲书人阅读 51,737评论 1 305
    • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
      沈念sama阅读 40,448评论 3 420
    • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
      开封第一讲书人阅读 39,352评论 0 276
    • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
      沈念sama阅读 45,834评论 1 317
    • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
      茶点故事阅读 37,992评论 3 338
    • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
      茶点故事阅读 40,133评论 1 351
    • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
      沈念sama阅读 35,815评论 5 346
    • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
      茶点故事阅读 41,477评论 3 331
    • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
      开封第一讲书人阅读 32,022评论 0 22
    • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
      开封第一讲书人阅读 33,147评论 1 272
    • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
      沈念sama阅读 48,398评论 3 373
    • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
      茶点故事阅读 45,077评论 2 355

    推荐阅读更多精彩内容