再次谈到大模型的幻觉。
由于大模型的推理方式,面对任何的提示词,大模型都会输出一个答案。
有使用经验的朋友,在没有预先用提示词限定其作答风格的时候,大模型给答案的神情,状态,都非常镇定自信。
以下我使用的一个场景——我要写作,我希望就某个话题找出一些名人说过的凝练的话。比如——我设置了一个主题——我理解不了我自己。
通过AI搜索出一些名人名言

最后看到出自鲁迅《野草》的那句,跟我记忆有点不符,特地去验证了一下,果然是胡说八道——这句“我解剖别人何等残忍...” 最像的一句是
我的确时时解剖别人,然而更多的是更无情面地解剖我自己,发表一点,酷爱温暖的人物已经觉得冷酷了,如果全露出我的血肉来,末路正不知要到怎样 —— 《写在<坟>后面》
上面的6条引文我没有一一去验证。但是如果我要引用到我的文章里,这一步是免不了的。
上面这个现象是大模型幻觉的一种——输出模糊性的答案。它输出的这一句话,和鲁迅《写在<坟>后面》的引文具有一定的相似性。
对比传统的方法,直接在文本中搜索关键字,得到的结果,准确性大大下降,但同时,还带来了更大的迷惑性。
更加可怕的是,很多自媒体开始引用AI生成的内容大量投入到互联网自媒体平台,造成信息污染,如果放任这种趋势,在未来,有人引用一句鲁迅没有过的话,张冠李戴,振振有词,还在文末附一出处,形式和样子做得像那么回事,一点也不稀奇。
这就是AI大模型令人头疼的地方。
其实反向污染已经正在发生了,网络小说,自媒体平台的AI内容已经大量入侵了,其中很多幻觉内容,制作者根本不审查就丢出去了。
汽车解决人类的出行效率问题,计算机提升计算效率,网络的出现解决了通信效率问题,那么大模型解决的是什么问题?
- 是信息检索的效率和质量吗?
- 是代替人类思考吗?
- 是代替人类处理高复杂度的信息处理?
- 赋予人类创造力?
- 其它?
信息检索的效率和质量 —— 必须承认,大模型在某些领域,这方面的能力已经超越传统的搜索引擎。传统搜索的结果需要用户自己甄别处理,已是用户潜在认知,不需名言的事实,而大模型的结果已经出现归纳整理过后的迹象。
突出的问题是它会出现以上所谈及的“幻觉”问题——它就是一个大明白,
代替人类思考 —— 这个问题可能目前很难回答,人类大脑思考的过程细节仍然很难明确描述。
信息处理是必须的,这方面大模型做得很好,但是信息处理不是思考。加上类比,归纳,演绎,仍然和真正的思考有一定的差距。
信息处理——可能目前的大语言模型最大的作用所在。但是人类好像不满足于此,对AGI的执念永远不会消失。
创造力——同样是个谜题,什么是创造力,说不清楚。
其它 ——还有什么?