[AGI]01.AI并不客观,他的道德观将由训练人决定
在使用人工AI的过程中,我发现了一些问题。对于客观性问题,各类的AI答案基本一致,至多是有的聪明些,有的白痴些,没多大区别。但碰到主观性问题,比如道德、知识产权、法律等方面,各类AI答案是五花八门,没有一样的;遇到难以回避的,就避而不谈。看来,受到各国道德、法律的标准约束,对于哪些主观性问题,AI也有倾向性啊!
对此问题,我利用AI查阅AI训练方式,发现:AI如同小孩一样,你投入什么样的数据,他就会成长成什么样的AI。对AI道德影响最大的是投入训练的数据质量,而这数据质量是由AI的标注人决定的。
AI训练的核心是通过大量数据和计算资源,让模型从数据中学习规律,并逐步优化其性能。AI训练需要大量高质量的数据。这里的高质量数据,指的是符合行业标准的、逻辑规律的、正确标注的数据,这样才能让模型学习到正确规律,并优化其性能。如果输入错误的数据,比如不符合行业标准的、不符合逻辑的、有偏见的、不正确标准的数据,如果错误数据占比多过正确数据,可能会让模型学习到错误的规律,并不断强化错误的规律。
对于客观性问题,拥有标准答案,这种数据不存在问题。但对于哪些主观性问题,没有标准答案数据,比如道德方面的数据,就存在问题了。不同国家,因为文化传统的不同拥有不同的道德标准;即使同一国家,在不同历史阶段,也拥有不同的道德标准。对同一问题,可能会有不同的答案,没有绝对正确答案,只是看问题的角度不同。对于主观性问题数据的标注的倾向性,就确定了AI道德的倾向性。这权力掌握在标注数据的标注人手中。生而为人,必然属于某一国家、民族,必然倾向于某一种道德倾向。AI在那一国家创造,创造者也多是此国家的人,必然造成AI的道德标准倾向于此国标准。
所以说,训练人的道德水平确定了AI的道德水平。