检索增强生成 (Retrieval-Augmented Generation, RAG)|已读论文合集(持续更新)

  1. arXiv preprint. 2024. Accelerating Inference of Retrieval-Augmented Generation via Sparse Context Selection Accelerate Inference Denoise
    本文提出了一种新的检索增强范式 Sparse RAG,其通过并行地编码检索到的文档,再仅自动回归高度相关的缓存来选择性地解码输出,这些缓存是通过使用特殊控制 token 提示 LLMs 来选择的。
    Sparse RAG
  2. arXiv preprint. 2024. AdaComp: Extractive Context Compression with Adaptive Predictor for Retrieval-Augmented Large Language Models Context Compression
    本文提出了一种新的低成本上下文压缩的方法 AdaComp,该方法可以同时根据查询的复杂度和检索的质量来自适应地确定压缩率。具体地,本文首先标注 RAG 系统回答目前的查询所需的最少的 top \textrm{-}k 文档数作为压缩率,并构造查询,检索到的文档及其压缩率的三元组。然后使用改三元组数据训练一个压缩了预测器。在推理期间,压缩器基于预测器的输出自适应地选择 top \textrm{-}k 文档作为上下文过滤的文档,并执行 LLMs 推理。
    AdaComp
  3. arXiv preprint. 2024. LongRAG: Enhancing Retrieval-Augmented Generation with Long-context LLMs
    为了缓解检索增强生成中 'light' 检索器和 ‘heavy’ 生成器的不平衡,本文提出了一种新的检索增强生成框架 LongRAG,该框架由 'long' 检索器和 'long' 生成器组成。
    LongRAG
  4. arXiv preprint. 2024. M-RAG: Reinforcing Large Language Model Performance through Retrieval-Augmented Generation with Multiple Partitions
    本文提出了检索增强生成的一种多分区范式(称为 M-RAG),其中每个数据库分区作为检索增强生成执行的一个基本单元。基于此范式,本文提出一种创新的框架,该框架利用 LLMs 和多智能体强化学习来显式优化不同的语言生成任务。
    M-RAG
  5. arXiv preprint. 2024. Improving Retrieval Augmented Language Model with Self-Reasoning
    本文提出了一种新的自我推理框架,旨在提高检索增强语言模型的可靠性和可追溯性。该框架包括三个自我推理过程:1)\textit{Relevance-Aware Process} (RAP),该过程提示 LLMs 判断检索文档和问题的相关性,2)\textit{Evidence-Aware Selective Process} (EAP),该过程指导 LLMs 选择并引用相关的文档,然后自动地从引用的文档中选择关键句子的片段作为证据,3)\textit{Trajectory Analysis Process} (TAP)该过程要求 LLMs 基于由前两个过程生成的所有收集的自我推理轨迹生成简明分析,并随后提供最终的推理答案。此外,本文提出一种渐进的训练方法,通过采用阶段性掩蔽策略来提供该框架的性能。
    SELF-REASONING framework
  6. arXiv preprint. 2024. BGE Landmark Embedding: A Chunking-Free Embedding Method For Retrieval Augmented Long-Context Large Language Models
    本文提出一个用于长上下文建模检索增强的新方法,称为 Landmark Embedding。该方法具有三重技术贡献。第一,本文引入了无分块架构。第二,本文提出了位置感知目标函数。第三,本文设计了一个新的多阶段学习算法。
    Landmark Embedding
  7. arXiv preprint. 2024. In Defense of RAG in the Era of Long-Context Language Models
    本文提出了顺序保留检索增强生成 (OP-RAG) 机制,该机制显著提高了 RAG 在长上下文问答应用中的性能。
    Vanilla RAG vs. Order-Preserve RAG
  8. arXiv preprint. 2024. Enhancing Retrieval and Managing Retrieval: A Four-Module Synergy for Improved Quality and Efficiency in RAG Systems Rewriter Denoise
  • Query Rewriter+ (quality): 通过生成多个查询来克服单个查询的 "Information Plateaus" 现象,并通过重写问题来消除歧义,从而阐明查询的潜在意图。
  • Knowledge Filter (quality): 用来解决 "Irrelevant Knowledge" 问题。
  • Memory Knowledge Reservoir (efficiency): 用来解决 "Redundant Retrieval" 问题。该模块以一种无参数的方式来动态拓展 RAG 系统的数据库。
  • Retrieval Trigger (efficiency): 用来解决 "Redundant Retrieval" 问题。优化用于获取外部知识的成本。


    The integration of four modules into the basic Retrieve-then-Read pipeline
  1. arXiv preprint. 2024. RaFe: Ranking Feedback Improves Query Rewriting for RAG Rewriter RL
    本文提出了一种不需要标注数据来训练查询重写模型的框架。
    RaFe
  2. arXiv preprint. 2024. EfficientRAG: Efficient Retriever for Multi-Hop Question Answering
EfficientRAG
  1. ICML2024. Superposition Prompting: Improving and Accelerating Retrieval-Augmented Generation
Superposition Prompting
  1. ICML2024. Accelerating Iterative Retrieval-augmented Language Model Serving with Speculation Accelerate Inference
    本文提出了 RaLMSpec,该框架在保证模型输出质量的同时能够减少通用迭代检索增强生成的服务延迟。技术上,通过使用检索文档的时间/空间局部性,RaLMSpec 使用基于缓存的推测检索机制和批量验证来减少检索开销。在此基础上,本文提出三种额外的技术来减少RaLM 的服务延迟:缓存预取,异步验证和最佳推测步长调度。
    RaLMSpec
RaLMSpec Pipeline
  1. ICML2024. InstructRetro: Instruction Tuning post Retrieval-Augmented Pretraining
    本文介绍了 Retro 48B,最大的检索预训练 LLM。该模型是在通过 用 100B tokens 在 1.2T tokens 中检索得到的 tokens 上用 43B GPT 模型继续训练得到的。相较于之前冻结预训练解码器权重的 Retro\textrm{-}fitting,本文解冻解码器,同时训练所有参数并得到了更好的 perplexity。在指令微调之后,InstructRetro 证明了其强大的 zero-shot 能力,可以整合各种下游任务的上下文,并且通过检索增强生成显著优于指令微调的 GPT。此外,本文发现可以直接从 InstructRetro 48B 中取出编码器。由此得到的 decoder-only InstructRetro 43B 在下游任务中仍然能取得不错的结果。这说明了通过在指令微调之前继续检索预训练是获得更好的 decoder-only LLM 的一个很有前景的方向。
    InstructRetro
  2. ICML2024. PinNet: Pinpoint Instructive Information for Retrieval Augmented Code-to-Text Generation Code2Text
    本文提出了 PinNet。它旨在通过关注有价值的部分并消除误导性语义,从检索参考文档中找到最相关的信息。
    具体地,本文介绍了一个判别器(discriminator)来预测检索描述与真实之间的相关性。判别器的最后一层参考文档的隐藏表示(hidden representation)捕获了检索描述的关键语义,可直接利用来提高代码到文本生成的准确性。为了充分使用判别器的表示,本文提出了一个新的注意力机制,称为 \boldsymbol{PinAttention},它使用了多头注意力机制来增强对额外知识的使用。此外,本文提出了一个新的对比学习模型,称为 \boldsymbol{PinNet\textrm{-}Ret},用于 code-text 检索。
    在 code summarization 和 SQL-to-text 任务上说明了本文提出的模型能够显著的优异与现有的模型。
    PinNet
  3. ICML2024. Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning Alignment RL
    本文提出了基于强化学习的算法 Trustworthy-Alignment,理论上和实验上证明了大语言模型无需显式监督如何响应达到可信状态(仅仅依靠外部证据文档来响应,而忽略参数知识的干扰)的能力。本工作强调了大语言模型在探索自身内在能力方面的潜力并将对齐的应用场景从满足人类偏好到拓展到创建可信的智能体。
    本文回答了以下三个问题:
    RQ1. LLMs 具有根据上下文和参数知识做出响应的能力的假设是否正确?
    RQ2. 该如何设计一种算法,通过强化学习将检索增强的大语言模型对齐到可信状态,从而增强检索增强大语言模型的可信度?
    RQ3. 所提出的算法如何执行以及将检索增强的大语言模型对齐到可信状态有哪些副作用?
  4. arXiv preprint. 2024. MemoRAG: Moving towards Next-Gen RAG Via Memory-Inspired Knowledge Discovery
    MemoRAG
  5. arXiv preprint. 2024. Multi-Head RAG: Solving Multi-Aspect Problems with LLMs
    本文提出了 Multi-Head RAG (MRAG),使用解码器块的多头注意力部分的激活作为 embeddings(通常做法是使用最后一层解码器块的激活作为 embeddings)。
    decoder architecture

    MRAG
  6. arXiv preprint. 2024. RichRAG: Crafting Rich Responses for Multi-faceted Queries in Retrieval-Augmented Generation
    本文提出了一个新的 RAG 框架,称为 RichRAG。
    RichRAG
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,753评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,668评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,090评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,010评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,054评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,806评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,484评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,380评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,873评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,021评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,158评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,838评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,499评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,044评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,159评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,449评论 3 374
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,136评论 2 356

推荐阅读更多精彩内容