摘要:检索增强型生成(Retrieval-augmented generation,RAG)通过从外部资源检索相关文档并将它们整合到上下文中来增强大型语言模型(LLMs)。虽然它通过提供事实文本提高了可靠性,但随着上下文长度的增加,推理成本显著增加,并且引入了RAG幻觉这一具有挑战性的问题,这主要是由于LLMs中缺乏相应的参数知识所导致的。一个有效的解决方案是在测试时增强LLMs的知识。参数化RAG(Parametric RAG,PRAG)通过将文档嵌入LLMs的参数中来执行测试时的知识增强,有效地通过离线训练降低了推理成本。然而,其高昂的训练和存储成本以及有限的泛化能力,极大地限制了其实际应用。为了解决这些挑战,我们提出了动态参数化RAG(Dynamic Parametric RAG,DyPRAG),这是一个新颖的框架,利用轻量级参数翻译模型高效地将文档转化为参数知识。DyPRAG不仅降低了推理、训练和存储成本,而且在测试时以即插即用的方式动态生成参数知识,无缝增强LLMs的知识并解决知识冲突。在多个数据集上的广泛实验表明了DyPRAG的有效性和泛化能力,提供了一种强大且实用的RAG范式,能够实现卓越的知识融合,并减轻实际应用中的RAG幻觉问题。
一、文章简介
论文题目:Better wit than wealth: Dynamic Parametric Retrieval Augmented Generation for Test-time Knowledge Enhancement
论文地址:https://arxiv.org/pdf/2503.23895
代码地址:https://github.com/Trae1ounG/DyPRAG
现有的检索增强生成(RAG)方法通过从外部源检索相关文档并将其整合到模型的输入中来增强模型的知识。然而,这种方法会显著增加推理成本,尤其是当检索到的文档数量和长度增加时。此外,当模型的内部知识与外部知识发生冲突时,还会出现所谓的“RAG 幻觉”问题,导致模型即使在提供了准确的文档时也会产生错误的答案。
为了解决这些挑战,文章提出了动态参数化RAG(Dynamic Parametric RAG,DyPRAG),这是一个新颖的框架,利用轻量级参数翻译模型高效地将文档转化为参数知识。DyPRAG不仅降低了推理、训练和存储成本,而且在测试时以即插即用的方式动态生成参数知识,无缝增强LLMs的知识并解决知识冲突。
二、核心贡献
1、高效的知识转换:DyPRAG 通过一个参数转换器模型(parameter translator),将文档直接转换为参数,从而避免了 PRAG 中繁琐的训练和存储过程。
2、动态知识增强:DyPRAG 能够在测试时动态生成参数知识,无缝增强 LLMs 的知识,解决了知识冲突问题,并且以即插即用的方式实现。
3、降低推理、训练和存储成本:DyPRAG 显著降低了传统 RAG 的高推理成本,同时消除了 PRAG 的高训练和存储成本。
三、实现方法
1、文档-参数对的收集:首先,使用 PRAG 的方法收集文档-参数对,即为每个文档生成其对应的参数表示。
2、动态参数化 RAG 训练:利用原始 LLM 将文档编码为嵌入向量,然后通过参数转换器模型将这些嵌入向量转换为参数表示。参数转换器模型是一个简单的超网络,由几个线性层组成,用于学习文档和参数之间的映射关系。
3、动态参数化 RAG 推理:在推理阶段,使用训练好的参数转换器模型将检索到的文档直接转换为参数,然后将这些参数合并到 LLMs 中,从而在测试时增强模型的知识。
四、实验结果
1、DyPRAG 在多个数据集上超过了标准 RAG 和 PRAG,尤其是在 2WQA 的Bridge子任务中,DyPRAG 的性能比 RAG 和 PRAG 分别高出 21.37% 和 23.81%。
2、DyPRAG 在未见过的数据上也表现出色,例如在 StrategyQA(SQA)和 IIRC 数据集上,DyPRAG-Combine 的性能显著优于标准 RAG。
3、DyPRAG-Combine(结合了上下文注入和参数注入)在所有模型上都取得了最佳性能,证明了动态参数与上下文知识结合的有效性。
4、DyPRAG-Combine 通过将检索内容转为模型参数知识注入到模型中,当检索内容送入模型时,此时能减少发生知识冲突,从而有效缓解了 RAG 幻觉问题,提升了性能。
五、未来研究
1、目前 DyPRAG 主要集中在问答任务上,未来可以探索其在其他任务(如数学推理)中的应用。
2、使用可解释性工具深入分析 DyPRAG 的内部工作机制,更好地理解模型如何融合参数知识和上下文知识。