graph-to-sequence (Graph2Seq) learning的目标是在文本生成任务中将具有图结构关系的表达转换到词序列中,近年来有各种各样的模型去建模图结构信息,但是大多数模型都忽视了两个不相邻节点之间的间接关系或者将这种间接关系与直接关系同等对待。在这篇文章中,我们提出了Heterogeneous Graph Transformer来独立地建模节点中的各种关系,包括间接关系、直接关系以及可能的关系。实验在四个文本生成和语义翻译的常用benchmark上取得了强有力的效果。
Heterogeneous Graph Transformer for Graph-to-Sequence Learning
2021-03-17(使用transformer做graph-to-sequence learning)
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 文献地址:https://arxiv.org/abs/1905.01436[https://arxiv.org/a...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 1) 注...
- 以下内容纯属个人见解,欢迎大家交流。发布于2019 ICDE 1 motivation 1.1 问题 在线健康社区...