原文:https://arxiv.org/abs/2410.01401
知识图谱问答(KGQA)通常先从大规模的知识图谱中检索出一个与目标问题相关的子图作为处理查询的基础。然而这个子图往往包含不相关的噪声信息。本文提出了一种知识图谱重评分(Q-KGR)的方法,旨在消除噪声路径,使模型能够更加专注于相关的知识。除此之外,本文还引入了一种参数高效的方法Knowformer,用于将重评分后的知识图谱注入到大模型中,以增强其事实推理能力。
1 方法
1.1 问题导向的知识图谱重评分
评分主要计算子图每条边和问题的相似度,方法如下:
- 对子图的节点对通过PLM(pre-trained language model)编码成
,
。
- 将问题通过同一个PLM进行编码,然后通过一个平均池化层聚合成
。
- 最后通过一个双线性层输出每条边的相关性分数
1.2 重评分知识图谱建模
增加了一个连接所有主题节点的全局节点(global node),以此拓展了图注意力网络(GAT)。节点层间更新公式如下:
-
:两层MLP。
-
:
的邻居节点。
-
:权重,实际计算方式为注意力分数和前面计算的边相关性分数的乘积。
-
:节点信息。
其中,全局节点的初始化表示为0。
1.3 Knowformer
用Knowformer层替换最接近LLM输出的个Transformer层,将结构化知识信息注入到LLM中。注入方法是将图结构信息拼接到key-value矩阵上:
其中,
,
,
是两个参数矩阵。
2 实验
实验采用编码器-解码器架构的大模型,FLAN-T5-XL(3B)和FLAN-T5-XXL(11B)。采用数据集为:
- OpenBookQA(OBQA):选择题,新型问答数据集,回答问题需要额外的常识和丰富的文本理解。
- AI2 Reasoning Challenge(ARC):用于评估常识推理。包含7,787个科学考试选择题。
- PIQA:物理类选择题。
- RiddleSense (Riddle):谜语风格的选择题。
采用的知识图谱为结构化存储形式的ConceptNet。
为了探索模型泛化能力,分别在仅编码器型和仅解码器型架构的大模型上做了实验。
本文还针对三个主要步骤做了一些消融实验