人机交互那些事之3:谈谈智能产品设计的道德准则

技术的发展具有两面性,新技术解决问题的同时也一定会带来新的问题。比如汽车的发明,大大提升人们出行和运输的效率,却在每天带走800人的生命。从能源的革命(电、燃气)、到分工制度(流水线、8小时工作制),到工具的发明(飞机、船、车、电脑、互联网),无一不是伴随着两面性。而近期,随着人工智能、大数据的相关应用例如自动驾驶、人脸识别、语音交互等逐渐成熟进入人们的生活,安全、隐私等话题再一次受到关注。

技术的价值很大程度上取决于技术的应用给社会带来的价值。但是在一个技术从实验室到产业化落地应用的过程中,产品的设计者往往更加以成果和效率为导向,追求正向的商业和用户价值的最大化。这个过程中对于硬币的反面的关注普遍不足,通常在引发了危机后才会触发反思和调整。

作为产品的设计者,越来越感到背负的社会责任之大。即使没有恶意,也不希望因无心之失而造成负面结果。这也是本文探讨技术伦理的出发点,希望以史为鉴,减少技术带来的负面转化。

一般来说关于技术伦理,有三种不同的声音:

1,宿命论 Determinism

所谓的“宿命论”,认为技术对于社会发展的影响起到决定性的作用。在一些科幻小说和电影中,例如那些“机器人最终将取代人类,奴役人类”为主题的作品,就利用了人们对技术宿命论带来的恐慌。这种论调也出现在很多技术伦理的讨论中。之前看过一篇文章深度探讨 “杀了最多人的技术是什么?” 有人说是交通工具、因为每年都带走很多生命,有人说是航海,因为带来了殖民和掠夺。但细想,却不是简单的因果关系能够概括的。所以说这是一类非常容易被媒体利用,大肆渲染以博眼球的论调。

最近新闻频繁曝出关于特斯拉电池和自动驾驶技术的负面新闻,比如一些自爆、失控的情况。但实际上,自动驾驶技术减少的事故,拯救的生命的数量远多于前者,而这类善行却极少被报导出来。不仅如此,如果实际体验过,还会对自动驾驶带来的出行便利深有体会,它在一定程度上解放了双手,让整个驾驶体验感极大提升,不禁让人感受到一场真正的技术革命的到来。所以,往往遇到这类‘宿命论’论调时,不带偏见的去剖析,常常会发现这背后所隐藏的,正是这个技术已接近成熟、即将规模化应用的信号。

2,工具论 Instrumentalism

另一种反面的论点——“工具论”, 工具论认为技术仅仅是一种工具,工具是惰性的,不会影响人类对它的利用,“善用”或者“滥用”都取决于使用者本身。就好比 “枪不杀人、人杀人” 的逻辑。这类论调往往对于技术的发明和设计者来说像一块赦免令牌,将责任完全的转移到用户身上,故也是技术提供者常进行宣导的手段。

作为设计者,之所以不能过于乐观的依赖于这种论点,是因为工具论纵容了一些不当的行为,引发社会道德危机。回看一些搜索引擎的种种恶行,工具论“完美地”支撑了 “我们提供搜索引擎这个工具,创造关键词竞价的游戏规则,至于被用来做什么,这不关我的事” 这类诡辩,令人嗤之以鼻。

即使背后的工程师和设计者没有任何恶意和任何利益诉求,还是有可能引发危机,算法偏见就是一种典型。算法偏见几乎是一个非常具有普遍性问题。它并非有意设定,而是来自于机器学习的过程,比如数据集构建和数据标注,出于采集数据的便利性,在采集时会倾向于获取更容易采集到的某类的种族、年龄、性别分布;在进行打标签环节时,对于标签系统和打标者疏于管理,也会将外部的打标者的个人偏见带入到数据中;更不用说有一些算法从一开始就设定了某种带有偏见的目标,例如“面相识别犯罪”。

可以说技术就像是一面镜子,映射出社会的不公。消除这类算法歧视有效的办法是进行合理的干预,采取策略鉴别和消除偏见,比如从方法层面减少人为干预,或从流程和规范层面进行整顿和治理。

3,中立 Mediation

在工具论和宿命论之外,科技哲学家Peter-Paul Verbeek提出了第三种观点,即中介理论(Mediation),这也是现在的主流观点。中介理论认为技术是一种帮助我们感知和操纵的媒介。就像演奏家和乐器共同产出优美旋律,两者共生,互相促进,缺一不可。

中立理论也主张 “人” 应当承担责任,包括生产者和消费者。对于设计师来说,由于智能的产品带来负面影响的可能性较大,因此在这类产品的设计上需要考虑到所有利益相关者,包括用户和所有前后台的参与人员在不同阶段的目标和行为,识别潜在的风险,然后在设计初期就定义好设计原则,再根据设计原则采取相关举措。

设计原则可以从项目的研究洞察中来,也可从一些现行的通用指南中获取,比如IEEE的智能系统道德准则、Google的pepple+AI guidebook。举措通常体现在两个方面,“潜移默化”和“大肆宣传”。“潜移默化”是指在人机交互层面进行规范,尽可能的通过交互的设计降低用户出错的概率;而“大肆宣传”即主动传达准确的信息,告知用户产品的使用风险和注意事项,以此达到教育用户的目的。

“进行有意义的人为控制” 就是一个通用且重要的原则。这是一条终极铁律,并且应该在任何的既定的机器原则之上。这个原则主张人类应该具有对系统的最终的行为控制权。

举自动驾驶的例子,在自动驾驶模式时,用户能够随时介入取得控制权。从“潜移默化”角度,用户通过最小的认知成本------转方向盘,控制权就能够回到用户手中,而不是通过某个特定的‘返回’按钮,而后用户也能够通过界面对自己对决策和结果可见。这种强可控性和高透明性的人机界面设计,让用户时刻感受到自己处于‘掌控者’的角色,从而帮助用户树立自身责任感;从“大肆渲染”角度,举措包括向用户白纸黑字阐明用户责任、制定一些规则譬如在自动驾驶进行到一定的时间就通知用户触摸方向盘,以此约束用户的行为,让用户保持一定程度的警醒。

正如一句十分绕口的对设计的定义:Design is to design the design of design,设计不仅仅改变工具(第3个design)和客体(第4个design),更多的是行为、认知和观念(第1个design),是人们看待世界的方式(第1个design)。对于有幸参与其中的创变者,应在前期的规划和设计时就考虑到设计伦理学,预想到可能带来的影响,通过设计的手段(下篇将会介绍)对用户从行为、认知等层面进行相关的提倡、提醒和引导。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容