医学报告生成 Generating Radiology Reports via Memory-driven Transformer

Chen Z, Song Y, Chang T H, et al. Generating Radiology Reports via Memory-driven Transformer[C]//Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020: 1439-1449.
代码仓:R2Gen code

任务目标

输入一张医学影像,生成相应的报告。


数据样式,图像+ 报告

难点

  1. 医学报告句子很多,使用常用的只生成一句话的Image Captioning models可能不足以生成医学报告。
  2. 要求的精度也比较高。

医学报告也有特有的特征,图片和报告的格式都高度模式化。目前的解决方案:

  1. retrieval-based. 大数据集的准备
  2. retrieval-based + generation-based + manually extracted templates. 模板的准备
  3. 本文使用的是 generation-based model

模型简介

本文使用memory-dirven Transformer生成医学报告。主要工作:

  1. 提出了relational memory (RM) 模块记录之前生成过程的信息;
  2. 提出了memory-driven conditional layer normalization (MCLN) 把RM和Transformer结合起来。

模型结构:Visual Extractor + Encoder + Decoder + Relational Memory


模型结构

1. Visual Extractor

这一部分的主要任务就是把图像转化为序列数据,从而可以输入到Encoder中。使用常用的卷积神经网络就可以,把最后的Linear去掉,留有最后的patch feature以及fc_feature就可以。
例如本文使用ResNet101预训练模型,每一组数据输入的图像为两张彩色图像。

  • 输入shape为(b, 2, c, h, w)
  • 视觉提取器分别对两张图进行特征提取。
  • ResNet101去除掉最后一层Linear与Pooling层,输入(b, c, h, w),输出(b, 2048, 7, 7)
  • 最后经过resize,permutation,shape=(b, 49, 2048)
  • 两张图像的特征在axis=1上拼接,得到patch_feature(b, 98, 2048)。这个维度可以看作是batch * seq_len * embedding。
  • 第二组特征fc_feature是在patch_feature的基础上再次Pooling生成的(b, 2048),在axis=1上拼接后,得到(b, 4096)。

2. Encoder

编码器把视觉特征处理,使用attention机制,得到最终的特征,作为K,V输入到decoder中。

  • 首先有一个src_embedding,把视觉特征维度转换为d_model=512,方便输入Transformer。(按理说这部分是在transformer里实现的,但作者的代码在CaptionModel里实现)
  • 数据x.shape=(b, seq_len, d_model)输入后,作为query,key,value输入到attention中(这里d_model=head * d_k),最后又得到相同shape的输出。

3. Relational Memory

这块的设计是为了使模型可以学到更好的report patterns,和retrieval-based 里面模板的准备差不多。RM使用矩阵存储pattern information with each row,称作memory slot。每步生成的过程,矩阵都会更新。在第t步,矩阵M_{t-1}用作Q,和前一步输出的embeddingy_{t-1}拼接起来作为K,V进入到MultiHeadAttention。

Attention

这里的K Q V计算机制与Encoder里的稍有不同
Q = M_{t-1} \cdot W_q,K = [M_{t-1};y_{t-1}] \cdot W_k,V = [M_{t-1};y_{t-1}] \cdot W_v.
最终attention计算得到的结果记为Z。因为M是循环计算的,可能梯度消失或者爆炸,因此引入了residual connections 和 gate mechanism。

Residual connection

M的中间值为
\tilde{M_t} = MLP(Z + M_{t-1}) + Z + M_{t-1}。

Gate Mechanism

gate mechanism的结构如图所示:

门机制示意图

输入门和遗忘门用来平衡M_{t-1}y_{t-1},为了方便计算,y_{t-1}被broadcast为矩阵Y_{t-1}, shape和M_{t-1}一样。两个门的表达式为
G_t^f = Y_{t-1} \cdot W^f + \text{tanh}(M_{t-1}) \cdot U^f, G_t^i = Y_{t-1} \cdot W^i + \text{tanh}(M_{t-1}) \cdot U^i.
其中的U和W都是可训练参数。最终gate的输出为:
M_t = \sigma(G_t^f) \odot M_{t-1} + \sigma(G_t^i) \odot \tilde{M}_t
其中\sigma是sigmoid activation function,\odot 代表 Hardmard product,也就是pointwise product。

Memory-driven Conditional Layer Normalization

常见的模型memory都在encoder部分,本文单独设计并与decoder紧密联系。与Attention中 LayerNorm对比,提出了MCLN。把M_t用到了Norm里\gamma, \beta的计算上。主要思路是,把M_t拉成一个向量,再用MLP去预测\gamma, \beta的变化量,最后再更新。

4. Decoder

共有三个结构,self_attention + src_attention + FFN
输入参数有:

  1. 输出序列的embedding:tgt,经过了embedding + positionalEncoding,输入到self_attention中,得到的结果作为src_attention的Q,这里使用了tgt_mask
  2. encoder的输出内容:src,要用到src_attention中的K和V,这里使用了src_mask
  3. src_mask, tgt_mask 在attention 计算过程中用到
  4. RM的输出结果memory,每一个t时刻的memory都被拉成了向量,最后拼接在一起,在每一个MCLN中用到。

代码理解

作者的R2Gen模型里EncoderDecoder模块是最复杂的。

  1. 首先实现了CaptionModel类,可以调用函数,分别执行_forward()和_sample(),实现了beam_search()。
  2. 然后AttModel继承于CaptionModel类,实现了_sample()函数,在测试过程中用到。
  3. 最后EncoderDecoder又继承于AttModel,实现了_forward(),在训练过程中用到。
  4. 最后的搜索过程,也就是_sample() 函数根据不同的策略会有不同的实现。

本文的创新之处在于设计了Relational Memory 模块,并使用到MCLN中。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,816评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,729评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,300评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,780评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,890评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,084评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,151评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,912评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,355评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,666评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,809评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,504评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,150评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,121评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,628评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,724评论 2 351

推荐阅读更多精彩内容