现在许多应用比如Google Now, Spotify 和 Amazon都会根据个人数据对用户的偏好做出假设。他们甚至在用户没有任何输入的情况下,使用这些信息代替用户做决定。比如,facebook为用户定制新闻,Amazon为用户推荐产品——他们都隐藏了“不相关”的信息只显示”他们认为用户“会喜欢的。
最近这种刨除用户选择的设计模式被称为“期望设计”。它旨在利用用户行为数据,使做决定这个过程在用户界面中自动化。结果降低用户目前做出的过度决定的数量, 从而在总体上减轻决策疲乏并提升决策质量。
尽管”期望设计“充满善意,然而自动化决策还是会隐式地引发信任问题——尤其是每次通过使用界面中的“黑暗模式”使信任被侵蚀的时候。因此,与想要欺骗用户的虚假的”黑暗模式“相反,这篇文章将审视如何通过使用诚实的、透明的“光明模式”,让用户对我们为他们做而的决定有信心,同时甚至推动用户为他们自己做更好的决定。
第一,为什么为你的用户做决定?
在今天的网络世界中,用户相较以前面对更多选择。比如,考虑在商城购物像Amazon和eBay。甚至当用户确切地知道自己想要什么的时候(比如更换苹果耳机),选择数量仍然可以是惊人的。
另一个例子是音乐自助服务,比如Spotify,它为我们提供大量的免费音乐。额外的选择迅速增加:
太多的选择让用户望而生畏,因为这样会让做一个选择变得更加困难。这个问题在过去已经被广泛地强调过,尤其是通过Barry Shwartz的选择的悖论和希克斯定律:
Barry Shwartz’ 选择的悖论:“大量的选择更有可能让用户什么也不选,而在选择时也不那么快乐”。
希克斯定律:每一个额外的选项都会增加做一个决定所需的时间。
两项研究都表明:通过减少在用户界面中的选择的数量,我们可以改善一个用户做决定的能力,从而减少挫折让用户体验更佳。
一篇有关“决定疲劳”的文章支持这一观点,文章中陈述:做大量的决定会让用户在做生活中重要决策的时候效率更低。这就是Zuckerberg每天穿同样款式的衣服的原因:
除了如何更好的服务社会外,我希望我的生活中需要做决定的事情越少越好。
如何减少选项?
减少用户选择的数量是现在许多应用的焦点。它已经通过许多方法实现了,现在我们讨论其中两种。
让选项更加相关
许多产品随着个人偏好不同呈现个性化,界面中仅呈现与当前用户相关的选项。Amazon在这方面已经做得很出名,无论是在它的网站上还是根据收集到的用户数据进行定制化邮件推荐:
期望决定
上述建议可能不足以减少选择的困难,因为用户仍然面临许多经过筛选的相关选项。这就是产品能够更进一步的地方,通过代表用户做决定完全消除选择的负担。
比如,应用如Google Now越来越多的为用户采取行动,无需任何用户输入。
Google Now在背后做了大量的决定,通过发现用户曾在哪里停车去搜索足球比分——然后在正确时间通知用户甚至无需用户要求。
Spotify展现了这种假设方法的另一个例子,通过在用户想到之前为他们创建播放列表。就像在声明中陈述的一样:
就像让你最好的朋友每周为你制作一张私人专辑一样
搜索新的音乐和决定加入谁到播放列表由用户来实施完成。
为用户做决定的这个概念被称为“期望设计”,它已经成为一个辩论主题由于代表用户做决定中所涉及的道德伦理问题。
在期望设计中创建信任
在减少选择与用上述方法为用户做选择的过程中,产品可能被指控对用户想要的内容自以为是。如果应用不做用户所想的会创造出不信任,尤其是每次当许多应用被曝出使用黑暗模式欺骗用户去做他们不想做的事。
因此,应用为用户做决定的数量越多,为了保持信任,应用应该越透明。通过避免相应的黑暗行为和借助使用“光明模式”来支持透明度可以实现这些,“光明模式”能够保持用户的知情权和控制权,即使当期望设计正在使用中的时候。让我们一起来探索“光明模式”。
避免限制信息
当一些选项被过滤来显示给用户更多他们可能喜欢的内容的时候,可能产生一个固有的问题:用户开始看到越来越多的同样类型的内容。
这会让发现新事物变得棘手。这个问题十分明显,不仅在电商网站如Amazon中存在,也存在在社交媒体网站中如Facebook。正如Time magazine陈述的:
Facebook希望向点击大量链接的用户展示更多的链,向观看大量视频的用户展示更多的视频等等。
许多用户可能对这种状况不太开心,因为他们不想品牌来决定他们看到的内容。比如,Joel Spolsky, Stack Overflow首席执行官,指控Facebook隐藏信息:
Facebook没有显示全部推送。它正选择展示给用户的内容。一个有趣的问题是Facebook算法会在多大程度上倾向于增强用户的偏见?因为那就是它曾经被训练去做的事情。
给用户控制权
通过反馈机制可以让用户更容易改善他们对“期望设计”的臆断,这样可以避免限制信息。
这可以通过许多方法来完成,从明显的(因而更容易)机制到不那么明显的机制。
Google Now(左上角)直接在Now cards下面提示用户检查显示的信息是否适当。
Facebook(右上角)做的不那么明显,它在每条新闻的右上角使用一个下拉符号。点击这个符号会显示”隐藏你不想看到的消息“的选项。
Amazon(底部)让调整推荐内容变得更加困难。用户需要通过导航进入”你的账户“——“你的推荐”——”改善推荐内容“来调整展示给用户的信息。
这三个例子中,谷歌提供了最透明的反馈机制,它在卡片中为用户反馈提供多样的、明显的交互方式,能够确保用户的控制权。
对滑动的卡片也一样,你也可以在每个卡片上的菜单图标中设计自定义设置的入口。
在Facebook和Amazon的案例中,即使用户可以通过提供反馈来调整他们看到的内容,潜在的新闻源和推荐算法仍然拥有更大的控制权,就像Joel Spolsky所概括的。
避免将广告伪装成内容
将广告伪装成内容是一个常见的“黑暗模式”,在没有用户的明确许可下,点击就会触发广告。
举个例子,Google Now 最近和许多品牌(比如Lyft, Airbnb, Uber 和Instacart)合作,在它认为用户需要的时候引导用户使用这些应用中的服务。虽然第三方服务是有用的,但是当卡片的内容是付费服务的时候,也可以被视为另一种广告形式。
当相似的设计黑暗模式出现在相关产品中时,“期望决定”背后的动机变得更让人怀疑。Google Map在这方面是一个好例子,伪装成pin的广告出现在地图搜索结果中。
利用用户现有的输入信息
当对用户做出假设时,准确性很重要。经过验证,利用用户之前输入的信息是一个好的方法,正如浏览器的特色:预填充表单,或者通过预先记住信用卡细节和密码以备将来使用:
这能够帮助用户免于重复同样的任务。当做更复杂的、需要合并多个信息流的假设时,也可以应用同样的准则。当探讨出租车服务Hailo’s “Now card”如何合并时间、定位和用户之前输入信息在Google Now中实现重新预定出租车的时候,Campaign Live突出强调这一准则。
让我们假设你来到伦敦然后预定了Hailo的出租车,你在早上7点到10点之间来到了一个特别的地区。如果你下午5点仍然在那里,假设你可能想要离开,那时Google Now提示你预定一个出租车。
这个案例中的假设更加准确(然后会出现一条不怎么像广告的伪装的广告)因为这个提醒是基于用户之前在一个合理的时间区间内,通过相同的服务做的预约。
让用户选择退出
尽管用户能够调整推送内容,但是有时用户根本不希望应用为他们做决定。在这种情况下,一定要让用户能够很容易选择退出。即使你不能删除Google Now这个应用,你可以在设置中禁用Now cards。
相反,Amazon中没有办法关闭推送,除非你完全注销——推送对Amazon很重要,因为产品销售额的35%来自推送,据Venture Beat所说。
因此存在一个问题,不问用户是否愿意,记录和使用用户数据这个功能默认打开。选择同意和推定同意两者之间存在很大的差异,正如器官捐献这个例子显示的一样,来自Dark Patterns:
基本上,当默认选择的时候,同意器官捐献的几率几乎达到100%,反之当选择许可不是默认的,同意几率非常低。
使用黑暗模式帮助用户
很明显公司使用”黑暗模式“来推进他们的计划,如今帮助公司代表用户做决定的方法使其更加容易。然而,如果相似的方法能够被应用来帮助用户为自己做更好的决定呢?当前,大多数人们将作出糟糕决定归咎于人性弱点,比如缺乏自控力、关注短期收益。
推动人们作出正确选择
在他们的书"Nudge: Improving Decisions About Health, Wealth, and Happiness"中,Richard Thaler and Cass Sunstein建议建立一个道德的“选择架构”,最终推动用户作出最好的选择。
在这种情况下,我们知道的被应用来创建黑暗模式的技巧也可以用来组建“光明模式”,推动用户做出更好的选择。
自动注册
比如,当平均寿命增加以后,通过养老金计划(比如US's401(k))为晚年存钱对用户来说变得很重要。然而,正如Thaler 和 Sunstein解释的一样,即使这些计划提供“免费资金”,许多用户仍然不会选择注册。Thaler 和 Sunstein提出了一些可行的解决方案来帮助用户为晚年存钱,如下:
1、自动为用户注册(器官捐献案例同样)
2、强制用户对是否注册做出一个简单的是与否的选择。
这些方法都是“光明模式”的案例,因为他们为用户的利益服务,推动用户采取行动做出好的长期决策。即使后一个方法强制用户决定,但是它将选择简化为一个能够鼓励用户参与的“二元选择”。
创建好的行为模式
Alan Shapiro表示采用”期望设计“的应用程序实际上能够帮助用户形成行为模式。通过经常建议去哪里、买什么,用户会变得习惯于应用程序的提醒和代替他们做的决定。
这会导致一些可怕的场景比如当一个公司只对卖给用户产品有兴趣的时候,因为这更有可能灌输给用户冲动购买和使用他们服务的思想。例如,从Amazon的Pantry Boxes开始,它新的Prime Pantry服务充满阴暗模式,这会鼓励用户比他们预期购买更多的东西。
正如Matt Crowley(Circadia产品老大)提出的一样:
Amazon已经将对话“我需要这个吗?”偏离到了“我需要其他什么东西来装满购物车?”
Amazon甚至已经为一个系统申请专利,这个系统能够在用户下单之前利用用户数据来预测和出货。Amazon将其称作“预测式出货”:
将这些动机放到一边,如果同样的策略被用来帮助用户形成更好的行为习惯会怎样呢?随着许多自我改善和习惯养成的应用的出现,在这方面有大量的例子。
比如,stickK通过使用“损失厌恶的心理动力和驱动行为改变的责任”帮助用户戒掉坏习惯。
Duolingo提醒用户每天练习新的语言,帮助用户形成良性习惯。
从上可以看出,用户能从期望设计里面代表他们做的决定中获得多少好处很大程度上取决于应用背后的公司道德伦理文化。一个公司愿意在多大程度上为自己的目的利用用户数据?用户愿意为便利交换多少数据?
正如自始至终解释的一样,给予用户控制权和保持透明度是维持信任的关键。你对黑暗模式应用在”期望设计“中怎么看?“光明模式”是否真的存在?谁在控制设计假定?