论文是专门为了解决自洽性 在生成式 LLM(Generative LLM) 模型中对百科 知识回忆 效果不够明确的问题。在该片论文之前还未有专门探讨该问题的论文。文章给出的解决的方案如下:在已经拥有研究的数据驱动的启发式方案之上与广泛受到欢迎的 MMLU 的基本标准之上,设计了一个专门用于知识回忆的部分,并通过验证该子集在符号推理和知识回忆任务上的性能模式分别与 MedMCQA 和 GSM8K 一致来解决上述的问题。在这个基础上,研究主要发现的自洽性问题即使主要依赖于思维链(CoT)的提示机制,仍然能够实现了 GPT-4o (OpenAI的知名模型)在 MMLU 上 89% 的准确率,同时持续优化了大语言模型在知识回忆和符号推理两个问题处理方向的表现,所以成为了当前的最优结果……
论文标题: Does Self-Consistency Improve the Recall of Encyclopedic Knowledge?
链接: https://arxiv.org/abs/2604.19395
作者: Sho Hoshino,Ukyo Honda,Peinan Zhang