“你不可能交了 5 亿个朋友,还没几个敌人。”这是《社交网络》电影 2010 年上映时的宣传语。
六年后,扎克伯格的“朋友”已经超过 16 亿,而他的敌人也从分道扬镳的创业伙伴变成了美国国会的参议员。
5 月 9 日,一名前 Facebook 热门话题(Trending Topic)项目的员工称,工作人员在推荐新闻时会有意压制关于保守派别——主要是共和党的消息。
大选年里,这样的消息引起强烈反应。消息公布第二天,南达科他州共和党参议员约翰·图恩(John Thune)呼吁发起调查,称“任何误导民众的尝试都是错误的,这关乎信息透明和诚信”。
美国参议院商务委员会也第一时间要求 Facebook 解释清楚新闻推荐算法原理。
很快,在 Facebook 个人主页上,扎克伯格写文章否认了误导民众。
上周三,扎克伯格、桑德伯格和 16 位美国保守派名人会面。作为保守派的政治评论家,媒体名人格林·贝克(Glenn Beck)事后写了篇文章称赞 Facebook 的努力。
对 Facebook 控制言论这事,媒体和参议员好像也没一开始那么积极了。
回过头来看,整件事只是一个孤立消息源的指责,而且没有切实证据。但这样一件事依然引起了整个美国,乃至全世界的关注。
似乎所有人都打心底里相信,扎克伯格可以左右言论,只是需要有人来点这把火。
让参议员发难的“热门话题”,到底是怎么回事?
在 PC 上,热门话题位于 Facebook 个人主页的右上角。微博热搜排行榜还没有变成营销工具前,和热门话题差不多。
右上角是网页边栏中最能抓住用户眼球的地方了,但这没用。截止 2016 年第一季度, 每个月不停在 Facebook 刷动态的人 91.4% 来自移动端。
而在智能手机上,这个功能被藏在“搜索”页面的屏幕下方,没什么存在感。
从 2013 年 8 月测试以来,热门话题还是没有成为 Facebook 主打的功能。换句话说,即便这个功能背后的人在误导民众,他们也没什么影响力。
但它到底有没有人工干预的部分呢?根据 Facebook 公开的 28 页内部人工编辑指南来看,编辑工作的确主要是审核来自订阅网站和算法本身推送的热门新闻,给它们写好摘要,并加上不会重复的话题标签。
全球运营副总裁 Justin Osofsky 在介绍中一再强调,这不过是一个审核事实、加标签的环节。但人工干预肯定存在。
可干预到什么程度?曾参与该项目的前 Facebook 员工透露说,工作人员会有两套工具:一个凌驾算法逻辑的热门新闻插入工具和一个黑名单。
比如马航失踪和法国《查理周刊》遇袭发生后,当时它们并没有在 Facebook 受到广泛关注,编辑越过算法加入热门话题,引发用户讨论。
而此次争议最大的事情之外,是其中一位工作人员说内部有个黑名单,包括一些保守新闻网站、反控枪人士的言论都会被压制。
不过,这两件事目前都没有被证实。
不管是工作人员的个人偏见,还是公司行为,整件事受到的关注,都说明了外界对 Facebook 影响力的担心。
它的影响力也确实值得让人担心。目前 16 亿 Facebook 用户中,有超过 10 亿人每天用它。
截止 2015 年年底,两亿多美国成年人中,有超过 72% 会通过 Facebook 上获取信息。相比之下,只有不到 200 万人直接订阅了《纽约时报》。
Facebook 自己并不制造新闻,但它也的确控制了什么新闻能被看到。
媒介会不会影响大选?已经是每四年一次的辩论游戏
Facebook 成了新兴媒介。那它就逃不过每四年一次的辩论,媒介到底能不能影响人选谁当美国总统?
2012 年时任美国总统的贝拉克·奥巴马寻求连任。《华尔街日报》在测试后认为 Google 搜索结果对候选人不公平。
当你直接 Google 搜索“奥巴马(Obama)”时会返回完整的个人简历和新闻消息。而挑战他的米特·罗姆尼,返回的只是普通搜索页面,当中甚至包括一种名为罗姆尼的绵羊。
面对自带政治倾向的质疑,Google 只是回应用户关掉默认的个性化推荐就好了,而关于搜索的准确性,他们也会继续优化。但关于搜索引擎操纵人们观念的问题却不了了之。
2008 年,奥巴马透过 Twitter 和 Facebook 宣传自己的议题,获得年轻人的青睐,成为美国第一位黑人总统。社交网络巨头才开始被认识到它们的影响力。
但传播信息的媒介到底能不能影响民众手里的选票投给谁?事实上,这些问题六十几年前就被讨论过。
最早的一次,美国社会学家拉扎斯菲尔德研究了 1940 年的美国总统选举。结果,他指出,大多数选民在竞选宣传前就已经想好投票决定,只有约 5% 的人会由于宣传改变意向,而其中亲戚、朋友、团队的影响力都比媒介更直接。
而在社交网络中,来自好友的说服力被强化了。这主要是因为消息传播得更加迅速了。一方面,线上的交流工具省去了见面的成本,交流更频繁了。而好友间的说服行为常常是网状交叉的,你很可能被多次推荐同一样东西。
科技公司没动力帮你消除成见
任何阅读相关的手机应用,都会尽量给你看你想看的那部分内容。他们会做测试搜集用户的喜好。
Facebook 为此专门做一个新闻推荐算法。你的个人简介、和朋友之间的互动、还有点过赞的主页等等都会成为算法推理的数据基矗但最基本的还是那套讨好用户的想法。
而你的注意力几乎是 Facebook 生意的全部。过去一年,Facebook 广告收入占到了总营收的 95.25% ,约为 17.1 亿美元。
为了确保你看得更多,Facebook 对算法追求的最关键指标是推荐你想看的内容。在这样的目标下,它自然不会对推荐与你政见相左的言论抱有热情,去展示一个价值观平衡的世界。
今天,科技公司在决定信息流动的同时,也是最有钱的公司
曾经,控制信息的是媒体,而有钱的却是石油、银行等传统公司。
这些科技公司控制着信息的流动。同时,它们还聚集了大量的资本。
截止 2016 年 5 月 20 日,全球市值最高的十家公司中一半都是科技公司,包括苹果、Alphabet、微软、Facebook 和亚马逊,而且市值都超过了 3000 亿美元。
1980 年,最大的公司普遍没有今天的巨头这么大(美元价值只翻了 3 倍)。那会儿市值排名前十的公司中 7 家都是石油公司,排名最高的 IBM 虽然是个科技公司,但它的主要客户是商业公司而不是亿万消费者。它们并不像 Facebook 和 Google 这样可以直接控制信息的流动。
今天,财富和信息控制的能力被集中在同一批公司手中。也难怪 Facebook 的消息会遭到如此强烈的反应。
和美国类似的是,大多数中国人的主要信息渠道也都来自科技公司了,不是微信,就是各种头条。
不同之处在于,不论是今日头条、天天快报,还是新浪/腾讯的新闻客户端……不管这些公司对算法的投入如何,你看到的第一条信息都是差不多的。