算法的选择不仅与消费者有关,还与企业有关。
几年前,大型综合医疗服务供应商Kaiser Permanente的首席医疗官John Mattison告诉我:“21世纪的重大问题应当是我们该选择相信哪一家公司的黑盒子?”Mattison提出的这个问题不但关乎到医疗领域内愈加重要的算法,从更广的角度来说,这个问题还关乎到目前的现状——我们开始逐渐去信任一些决策系统,但它给出决策方案所使用的方法我们却无法理解。从定义上来说,黑盒子指的是一种公开输入和输出内容但是关于两者是如何转化的,外界却毫不知情的一种系统。
很多人都在关注可以影响消费者体验的算法,但对于算法在刺激商业决策制定过程中所扮演的角色,我们并未给予足够多的关注。
比方说,这么多年来有很多人写文章去论述算法是如何改变我们在谷歌或Facebook上看到的新闻的。Eli Pariser曾让大家注意一种叫做“过滤泡沫”的现象,这种现象指的是算法记录我们的偏好,之后继续为我们提供我们想要看到的新闻,从而使我们接触不到其他的观点。这就存在一种风险——尽管搜索引擎以及社交媒体公司都在尝试解决这一问题。
但在和VentureBeat的Chris O'Brien交谈过后,另一种更深层次且更为普遍的风险出现了。那就是算法还在影响作家和出版商的选择。倘若你是作家,你是不是会写一些你认为最具新闻价值的内容?还是说会写一些在社交媒体上能得到最多关注的内容?你是会采用长篇文章去详细论述一个主题呢?还是会选择简短有力的文章来获得更高的浏览量以及广告收入?即便你知道文字可以更好地说明你的观点,你是否还是会选择放弃文字而是用视频来呈现自己的观点呢?
无疑,获得搜索引擎以及社交媒体的关注是媒体新闻以及报告方式简单化的因素之一。不过这一因素却致使出色的刊物变成了对于文化的不实宣传、虚假的争议以及其他吸引关注量的技巧。在美国总统大选新闻报道中的“竞次”现象就是新闻行业营收从订阅式到广告式、从读者信赖的信息源变成通过社交媒体去争夺读者的产物。如果你的企业想要繁荣发展,那么你就必须去“取悦”算法。
技术促进的算法在改变着我们的社会,而如何负责任地使用它则成为了当下我们的关注重点。
当谷歌是可供大家选择的唯一一个搜索引擎时,搜索引擎优化(SEO)还是很简单的。谷歌提供了很多工具来帮助网页出版商去理解引擎算法是如何评估内容价值的以及什么类型的内容会引发危险信号。当时,有一个行业在致力于引导出版商以正确的方式理解算法(这就是White Hat SEO)。还有一个行业则致力于帮助不道德的出版商回避一些规则(这就是Black Hat SEO,即黑帽搜索引擎优化)。其中黑帽SEO的一种形式就是去开发“内容农场”(通常是指专门使用软件进行制作大量的垃圾内容获取用户点击量),“内容农场”其实提供的是低质量的内容(通常是从其他网站上抄袭的)。黑帽SEO通过欺骗算法,使其认为这些低质量的内容极具价值。2011年,谷歌重新配置算法来防范内容农场,许多一直采取这种做法的公司都深受重创。许多企业都破产了(它们也早该如此了),其他一些企业为了存活则必须改进自己的业务方式。
最近,以Facebook为目标平台的出版商也经历了类似的事情。Facebook在上个月宣布它将升级News Feed的算法来减少采用“点击诱饵”标题的故事数量(这些标题吸引读者,但实际打开的文章内容却与标题无关)。Facebook的目的和谷歌一样,这是值得称赞的:提供更出色的用户体验。正如Facebook研究人员Alex Peysakhovitch以及Kristin Hendrix在声明中写得一样:“News Feed的价值观之一就是在我们的平台上提供真正的交流,这也是我们努力去理解何种故事和博文会让用户认为是真实的原因。我们还在努力去理解什么样的故事会让用户觉得是垃圾内容或是具有误导性,这样就可以减少用户看到这些内容的次数。”
正如Warren Buffet说得那样:“要赢得好的声誉需要20年,而要毁掉它,5分钟就够。如果你能以这样的思维方式去思考,那么你采取的行动也将有所不同。”谷歌和Facebook都明白它们的声誉取决于那些找到自己想要阅读内容的用户。它们都采用了“long click”(长点击)以及“short click”(短点击)来进行计算。如果用户点击了一个链接然后立刻返回,他们就认为此内容无趣。如果用户在一段时间之后再返回,这说明他们很有可能花了一点时间去看这个内容。这就是一个用户认为内容有价值的信号之一。
这就说到了黑盒子部分。根据Facebook News Feed产品管理副总裁Adam Mosseri所说,Facebook不会公开其定义点击诱饵的方法,因为如果公开了Facebook采取的做法,那么一些工程师就会想方设法来规避Facebook News Feed升级版算法采用的一些过滤条例。
由于许多影响社会的算法都算是黑盒子——不管是出于Facebook等公司给出的原因还是因为在这样一个深度学习的世界,算法本身对于创造者而言也是难以捉摸的——信任的问题是关键。
在不知道准确规则的情况下,如何评估算法是现今非常重要的一门科目。下面是我认为的关于能否信任算法的四条准则:
1.算法的创造者明确说明了他们想要的结果是什么,外界的观察者是可以证实这一结果的。
2.算法是否成功是可测量的。
3.算法创造者的目标与算法用户的目标是否一致的。
4.算法能否让创造者和用户做出更好的长远决策?
让我们来举些例子吧。
继续之前的讨论,我会用我给出的四条准则来评价Google Search以及Facebook的News Feed。
1.想要结果的清晰度。不管是谷歌还是Facebook,两者都明确说明了它们的算法是将用户的利益置于广告商或出版商利益之上的。由于目标已经明确说明了,那么我们就很容易在事实情况与理想情况相悖时提出质疑。而目标的明确性叙述可以让我们更方便得对算法是否达成目标这一点进行评价。
2.可测量性。硅谷公司都善于利用A/B测试(A/B测试是一种新兴的网页优化方法,可以用于增加转化率注册率等网页指标)并能找到方法来测量算法是否达成了目标。比方说,谷歌成立了一个搜索质量团队,团队会利用数千个“Mechanical Turk”式的反馈者来对搜索结果给出满意或不满意的反馈,但他们更重要的测量指标仍是真实用户的行为,比如说长点击VS短点击或是说用户是否会点击出现在最前面、出现在第二个甚至是第十个的搜索结果。再来说广告,谷歌构建信任的方式是通过提供广告工具来预测一个广告会带来多少次点击量来完成的。此外,它的业务模式是根据点击量来进行收费的。这种可测量性正是促进谷歌取得营收成功的因素,这是因为点击付费的广告模式要比那些根据访问量来付费的模式更具可测量性(这里要特别说明,Facebook并没有采用类似的点击付费模式。它提供的收费模式也不完全等同于访问量付费模式,它更贴合“受众性”——这里指的是分享你博文内容的用户数目。Facebook还提供一种参与度指标,参与度指的是用户点击、分享或是回复你的博文内容。)
3.目标一致性。长远来看,谷歌以及Facebook和它们用户之间目标具有高度的一致性。如果它们一直为用户提供他们不想要看的内容,那么用户最终就会停止使用它们的服务。谷歌以及Facebook的服务和广告商之间也有高度一致的相同目标。如果广告最终没能呈现给受众,那么客户也不会再购买广告位。不过内容服务以及内容出版商之间则存在潜在的目标分歧。在出版商看来,即便内容对于用户来说不是最佳的,他们依旧想要获得更多的关注度。谷歌面临着内容农场的问题,Facebook以及其他社交媒体面临的则是标题党或是清单体文章的问题。这些问题的出现也使得算法经理需要去调整算法来处理这些抗力因素,这就像是飞机自动驾驶仪的设计师需要设计算法来处理变化多端的天气情况一样。
4.长期决策。这种平台目标和用户目标的一致性可以持续短期时间。但它能否持续长期时间呢?
同样的准则可以应用到无人驾驶汽车上。目标很明确:避免所有事故的发生并且比人类驾驶员更加安全地驾驶汽车。目标也是可测量的。随着学习的机会越多,达成目标的系统也就会不断优化。正如自动汽车行业的始祖Sebastian Thrun在去年Next:Economy峰会上说得那样:“无人驾驶汽车的学习速度是超过人类的,这是因为不论何时它们犯错,它们的错误以及避免错误发生的方式都可以传递给其他所有的车辆。”
再回到开篇的那个主题:算法在新闻出版中扮演的角色。当人们对于媒体报道总统大选的方式存在疑惑时——比如说它们未能深入挖掘一些重要议题而是一味关注如何让大选变得更激烈,这时候你就可以用关于黑盒子是否值得信任的四条准则来进行判断。
主宰我们社会的其实是一个主算法(主算法是能通过数据学习任何东西的算法)。这是由华盛顿大学计算机科学教授、《主算法(The Master Algorithm)》的作者Pedro Domingos提出的概念。但主算法既不是一种进行机器学习的新方法,也不是政府的管制。这是一种早在几十年前就已经被编码进入现代企业之中的规则了,自此之后基本就未受质疑。这种念头就是企业的唯一任务就是对股东负责。
这一算法也让CBS的主席Leslie Moonves在三月这样说道:“川普的竞选对于美国来说不一定是好事,但对于CBS的营收来说肯定是好事。”
此次大选对于媒体出版商以及像谷歌、Facebook这样的平台都是一次真正的考验。当让出版商受益的算法遇上让用户受益的算法,谷歌和Facebook会选择哪一种算法呢?我们又可以相信哪个黑盒子呢?