自从DeepSeek横空出世之后,AI替代人类的言论就甚嚣尘上,但作为AI,有其不可磨灭的弊端。
首先,我们都知道AI是数据驱动的,数据的好坏决定着AI结果的好坏,就算是最强的推理模型,那也是建立在数据的基础之上的,一旦数据出现了问题,那么AI给出的结果还是可信的吗?
对于简单的逻辑,AI能够分析出结果,那是基于简单逻辑的学习之上,其实人类学习也是这样,对于从未见过的事物,我们怎么会不犯错,但是有人教了之后,那么就认识了,但人会忘记,记忆会模糊,所以人有时候会犯错,但机器不会,他记得每一条知识,只不过每一条知识都加了不同的权重。
但是复杂问题,没人教啊,AI没这样的数据,又该拿什么推理,人类能够面对未知事物推理的过程是因为会类比,把未知的东西转换成我们已知的,这就需要我们学会分类,AI也许会知道分类,但如果一些涉及到模糊概念的东西,AI搞不定分类,并且在没有数据的情况下,AI怎么去类比,在使用AI的过程中,AI不断的给出答案,也许有些人会对AI给出的答案进行标注,是好答案还是坏答案,但相信大多数的人可能根本就不会这样做,因为目的不同,我们只想得到答案而已。
对于未知的东西,AI可能会给一些似是而非甚至是胡说八道,但如果根本不了解的人,根本就看不出来,就像你在路上看到一个算命的,他说的头头是道,你没有分辨能力,只能根据他给的一些关键词进行判断,但你没有相应的经验,要么信,要么不信。
AI没有温度,你会发现AI擅长堆砌一些华丽的辞藻,但这些辞藻之间的语句连贯性,往往显得很生硬,读起来很美,但就是会感觉到一股AI味,如果你限定范围,AI不好发挥,如果你不限定,它又胡说八道,可能你不管怎么调整都达不到你想要的效果。
由于AI的不可控,结果的不可信,在很多方面也只能对结果负责,你要结果给你,至于对错,需要你自己判断,所以就算是接入了AI,还是需要专人对AI的结果负责,毕竟如果真出事情了,你还能去把责任甩到AI身上吗?