8. 什么是大模型幻觉问题

8.1 大模型幻觉问题定义

当模型生成的文本不遵循原文(一致性,Faithfulness)或者不符合事实(事实性,Factualness),我们就可以认为模型出现了幻觉问题。

  • 一致性(Faithfulness):是否遵循input content
  • 事实性(Factualness):是否符合世界知识

8.2 传统任务重的模型幻觉 vs LLMs中模型幻觉

  • 传统任务里,幻觉大都是指的是Faitfulness:
    • 信息冲突:LLMs在生成回复是,与输入信息产生了冲突,例如提取信息和输入原文不一致。
    • 无中生有:LLMs在生成回复是,输出一些并没有体现在输入中的额外信息。
  • 而面向LLMs,我们通常考虑的幻觉是Factualness:
    • 因为LLM的形式是open-domin Chat,而不是局限于特定任务,所以数据源可以看作是任意的世界只是。LLMs如果生成不在输入信息的额外信息,但是符合事实的,这种情况也是有帮助的。

8.3 从数据角度分析幻觉

  • 训练数据可信度,训练数据包含脏数据和假数据等
  • 重复数据问题,过度重复记忆出现偏差

8.4 从模型角度分析幻觉

  • 模型结构:LLMs时代极少存在问题
  • 解码算法:引入不确定性算法,通常生成多样化和创造性文本
  • 暴露偏差:训练和测试阶段不匹配,特别是生成长文本
  • 参数知识:预训练错误,将导致幻觉问题
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容