文/秋翁翁
温铁军教授在谈论经济问题时说过这么一段话,看《国富论》必须先看《道德情操论》,不能只讲投入产出和经济效益,而忽略了道德责任。我们在科技领域同样面临类似的问题,科技工作者不能只懂得科技技术,还应该优先懂得科技伦理。知道什么可为,什么不可为,什么才是对社会百利而无一害的。而不是单从技术角度看待问题,错误地把科学技术变成刺向人类的利刃,贻害社会。
科技伦理是指科技创新活动中人与社会、人与自然和人与人关系的思想与行为准则,它规定了科技工作者及其共同体应恪守的价值观念、社会责任和行为规范。科学伦理和科技工作者的社会责任事关整个社会的发展前途。
在AI技术飞速发展的今天,这个问题显得尤其迫切,已经有很多人开始质疑AI技术的开发,已经有很多人意识到AI技术如此野蛮地发展的势头不对劲了。包括马斯克和苹果联合创始人斯蒂夫·沃兹尼亚克在内的一千多名行业高管和专家签署公开信,呼吁至少在6个月内暂停高级人工智能(AI)的开发,给人们找到完美的解决办法留出时间。信中写道,只有在我们确信其效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。
除了我们自身强化社会道德规范以外,在训练AI时应该优先告诉AI该做什么,不该做什么,而不是单纯地从实现技术功能的角度考虑问题。人类将科学技术教给AI的时候,应该优先教会AI科技伦理,让AI在自主运行的时候形成有效的制约机制,从而将AI技术牢牢地掌握在正确的人的手中,避免AI被坏人利用,变成危害他人,危害社会的工具。
AI在一定程度上只是人类的孪生系统,最重要的还是要保障我们自身行事的正确性。为此在教授科学技术的同时应该开授科技伦理课程,科学界应该制定违反科技伦理的惩戒机制,社会应该演练救济措施。我们不能小视科学开发对社会造成的危害程度。远一点的例子是,2018年11月26日,南方科技大学副教授贺建奎宣布一对名为露露和娜娜的基因编辑婴儿于11月在中国健康诞生,由于这对双胞胎的一个基因(CCR5)经过修改,她们出生后即能天然抵抗艾滋病病毒HIV。这一消息迅速激起轩然大波,震动了世界。最近的一个例子是日本核污染水排海事件。当事故发生时全球竟然没有一个完善的办法阻止危害继续扩大,这么多国家,这么多国际组织竟然没有办法阻止排海计划,这是多么惨痛的教训。
我们国家进入现代社会晚,科学界一有发展科技工作者就会感觉很新鲜,很受鼓励,就有点无所忌惮,对科学缺乏敬畏之心。以至于对待科学技术缺乏界线,所以这些年出了很多危险的操作,像克隆、基因编辑、农药滥用、科技与狠活。有些后果还在发展,有些后果已经显现,但还没有引起足够认识!
凡事有原则肯定不会错,就怕没有边界,胡作非为。《星际穿越》里人类教会人工智能幽默,《芬奇》里人类教会机器人责任。但现实中很多人失去了这些,所以才会有那么多杀伐,那么多互相倾轧,那么多欺负人。但这也没办法,也许人类从一开始就有缺陷。
当我们把人性教给动物,甚至机器的时候,一定要记住不要泯灭我们自身的人性光辉。