8.1 大模型幻觉问题定义
当模型生成的文本不遵循原文(一致性,Faithfulness)或者不符合事实(事实性,Factualness),我们就可以认为模型出现了幻觉问题。
- 一致性(Faithfulness):是否遵循input content
- 事实性(Factualness):是否符合世界知识
8.2 传统任务重的模型幻觉 vs LLMs中模型幻觉
- 传统任务里,幻觉大都是指的是Faitfulness:
- 信息冲突:LLMs在生成回复是,与输入信息产生了冲突,例如提取信息和输入原文不一致。
- 无中生有:LLMs在生成回复是,输出一些并没有体现在输入中的额外信息。
- 而面向LLMs,我们通常考虑的幻觉是Factualness:
- 因为LLM的形式是open-domin Chat,而不是局限于特定任务,所以数据源可以看作是任意的世界只是。LLMs如果生成不在输入信息的额外信息,但是符合事实的,这种情况也是有帮助的。
8.3 从数据角度分析幻觉
- 训练数据可信度,训练数据包含脏数据和假数据等
- 重复数据问题,过度重复记忆出现偏差
8.4 从模型角度分析幻觉
- 模型结构:LLMs时代极少存在问题
- 解码算法:引入不确定性算法,通常生成多样化和创造性文本
- 暴露偏差:训练和测试阶段不匹配,特别是生成长文本
- 参数知识:预训练错误,将导致幻觉问题