前些天翻到一篇旧文你在 Facebook 上一直点赞,一直点一直点,会发生什么
马特开始在信息流里依次对内容点赞。有喜欢的,有他讨厌的,甚至痛恨的。他都点了。至于 Facebook 在点赞操作之后给出的新推荐内容,他也点了。接着是一些新闻报道,优惠卷内容,亚马逊促销。他都点了赞。
接着,在很短的时间内,奇妙的事情发生了,一小时之内,马特的信息流里面已经没有人类的踪迹了。全都是品牌推广和广告消息。
与此同时,来自 Upworthy 和 Huffington Post 的内容也到处泛滥。在试验的第一晚,马特看了一下他的消息流,从上到下依次是:Huffington Post、Upworthy、Huffington Post、Levi's 广告、Huffington Post、Upworthy。
在睡觉之前,他想起来自己应该点赞些关于加沙冲突的内容。于是他点赞了一条支持以色列的消息。转天早上,他的信息流内容完全转向极右。他还是要继续点赞,当然。于是他又点了第二修正案和反移民法案的页面。
马特发现即便是在同样的时刻,Facebook 的移动端和桌面端页面内容是不同的。在移动端上几乎没有和人相关的消息,都是网站内容或者广告什么的,而在桌面端——虽然也充斥着品牌推广内容——仍旧能够看到好友动态。显然,在移动端寸土寸金的屏幕上,Facebook 想要将用户的注意力放在从人的身上挪开。
当试验进行到第二天的时候,马特的 Facebook 内容已经变得面目全非了。系统给他推荐的全是极右翼的内容,他已经担心自己会上黑名单了。
当然,互联网的世界里并不仅仅局限于点赞(like),还有收藏(favorite)、关注(follow),甚至在你浏览时,big brother is watching you。基于你如上的行为,系统会推荐你可能喜欢东西。作为从业者,我们把这叫“个性化推荐”。
解释下,个性化推荐算是搜索引擎的一个延伸,它省略了用户输入关键词和在检索结果页面选择的步骤。也就是说,个性化推荐的本质是一个模糊场景下的模糊检索,对于获取信息的效率来讲提升是肯定的,但是因为缺少用户的输入环节,也会导致程序每次给出的结果都相较之前范围更窄。
Eli Pariser写过一本书《The Filter Bubble》,大致观点是互联网产品在努力的做的个性化服务,在限制我们的视野,而非拓展。互联网看似开放透明,可以把所有知识信息展示给所有人,但在信息爆炸的当下,信息处理成了我们最头疼的问题,这个时候,我们就需要各种各样的Filter,来过滤掉我们不喜欢的东西。
当然,我知道这不是个性化推荐或者说工具的锅。我们都喜欢自己喜欢的,并不关心信息从哪些渠道而来;至于对这个世界的认知,同样存在“可得性偏差”,以自己每天接收到的信息来推测这个世界是怎么运行的。翻一翻,现在还能找到过去很多呼吁人们从电视机前离开的新闻。但是,人每天看电视时间的峰值也就几个小时,而移动互联网时代的你我,可是永不下线~
Cass Sunstein 在 《Republic.com》 这本书里谈论过一个话题:让每个人只看到为他的偏好所定制的世界,会不会导致社会的分崩离析?他的论点是:社会的整体自由依赖于一个公共的讨论平台的存在。对每个人来说,他们都需要在这个公共的环境里接受别人的讯息,这些声音也许刺耳,也许粗糙,但是这个彼此磨砺的过程是维系社会的必要条件。在传统社会里,尽管每个人的观念不同,但大家看到的世界至少还是同一个模样,这逼着大家学会忍耐这个世界里和自己的观念不符的部分。而一旦每个人可以定制自己的视野,他就会放弃倾听、宽容和讨论的责任,只是躲在自己的天地里任性地选择自己喜欢的声音。长此以往,每个人都会沿着自己的方向走向极端,他把这个过程称之为社会的极化(group polarization)。
他写这本书是在 2001 年,那时的互联网世界以今天的眼光来看还只是一片荒芜。那时还没有订制广告的商业模式,也还没有订制的网络电台和订制的搜索结果页面,没有占据社会中心地位的社交网络平台,「拉黑」这个词还不不存在。
而今天所有这些都有了。