作者提出一种基于attention机制与图卷机神经网络的AGGCN模型。该模型直接采用整个dependence tree作为输入。不同于以往的hard purning 作者采用attention机制作为soft purning,可以自动筛选出dependence tree中有用信息。
模型性能
对于跨句关系提取任务,模型在准确性方面分别超过了当前有关多类三元和二元关系提取的最新模型的8%和6%。 对于大规模的句子级提取任务(TACRED数据集),AGGCN模型也始终优于其他模型,显示了该模型在大型训练集上的有效性。
论文主要贡献
- 提出了新颖的AGGCN,它们以端到端的方式学习“soft purning”策略,从而学习如何选择和丢弃信息。 结合dense connection,AGGCN模型能够学习更好的图表示。
- AGGCN在性能上达到当前的state-of-the-art
AGGCN的主要模型
1.png
图中的Attention Layer是一个多头注意力机制公式如图所示,注意力对象为输入的 最后分类层采用LR进行分类。
2.png
稠密连接层的GCN用数学化的方式表达为如下,其中是
(dependence tree中的邻界矩阵)经过attention后的矩阵,
表示激活函数RELU
3.png
4.png
作者公开了AGGCN源码:https://github.com/Cartus/AGGCN