一个叫ChatGPT的AI会说谎!

最近,ChatGPT 可谓之甚嚣尘上。不光是人工智、机器学习的人非常关注,甚至于各行各业的人都来尝试一下,体会一下人工智能带来的科技快感。

但是用的越多发现问题越多,已经有网友发现,ChatGPT 会说谎,而且是撒一个谎,再用更多的谎去圆的情况。

image

ChatGPT的谎言

我尝试问了ChatGPT一个问题:“千字文是谁写的?”他回复的答案是:“秦始皇”。

image

如果第一个问题不能说明问题,我又问第二个问题:“秦始皇还写了什么文章?”,回答是《纪秦始皇》、《纪自治原则》、《训谕》、《臣下规》。

image

然后我忍不住查了这几篇文章,好像都不是秦始皇所著,或者根本没有。
image
image

网上类似的问题还有很多很多。

如果一个问题回答错误,或许可以理解为其训练模型不够完整,或者数据量不足。但是它用第二个虚构的答案来掩饰第一个问题,就有点超出正常的范围了。

由此可见,ChatGPT 通过语言模型练习之后,已经非常像一个人类,甚至有了“撒谎”这项本领。而这不免又引起担忧。人工智能的未来到底是造福人类还是毁灭人类?

人工智能究竟是造福还是毁灭?

image

1942年,阿西莫夫在短片小说"Runaround"(《环舞》)中首次提出了三定律:

  • 第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
  • 第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
  • 第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

在科幻片和科幻小说的设定中,这三条铁律是被植入机器人底层的。但是显然这是设定,而非事实。

即使保证三条铁律的情况下,人工智能依然可以通过撒谎等方式来造成一定的危害。比如潜移默化的影响一个人的思想,一个人的态度。而如果这个人是一国之领导人,产生的后果可能世界大战。

image

从1950年的图灵机;到1964年,聊天机器人的诞生;1997年,IBM公司的“深蓝”战胜国际象棋世界冠军卡斯帕罗夫;再到2017年,AlphaGo战胜世界围棋冠军柯洁;再到如今看似无所不能的ChatGPT。人工智能已经越来越近,但是也越来越危险。

正如360创始人周鸿祎所说:ChatGPT的最大安全问题就是产生自我意识之后是否能被控制。人工智能亦是如此。
image

基于庞大的数据库和强大的运算能力,人工智能肯定能获得远超人类的能力,关键在于未来的人工智能是否能受控于人。

在人工智能探索的道路上,人类或许还有很多路需要走。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容