随着人工智能的发展,人类将会把越来越多的决策权交给机器。但是,从目前的一些事例看,基于机器学习的决策并非那么公正完美,相反,那些决策也渗透着偏见。近期的一份研究报告中,Google的一名研究科学家Mortiz Hardt表示:“基于机器学习的决策是极为有用的,同时,它又会深刻影响我们的生活……尽管如此,在如何避免机器学习可能产生的偏见方面,我们仍然缺乏一种可靠的方法。”
本月,这份报告提交给了巴塞罗那举办的NIPS 大会(NIPS,神经信息处理系统)。与此同时,其它人也提交了一些相关的论文。这证明此问题正在受到更多人的重视。芝加哥丰田技术学院的计算机科学家 Nathan Srebro 是上述研究报告的作者之一。他向卫报网站介绍了研究员们使用的测试方法。
(图片来自 springboard)
Srebro 说,这项测试是针对机器学习系统的。通过分析大量的数据,机器学习系统能够对未来做出预测。问题在于,计算机的决策规则并非实现事先编写好的,而是计算机自己学会的,因此,决策背后的逻辑通常是不可知的。即使编写算法的程序员也未必能够搞清楚。
“算法是如此复杂,即使我们能够进入其内部,搞懂其内在原理也是几乎不可能的,” Srebro 说,“机器学习的全部要点就是构建魔法黑箱子。”
为此,Srebro 与同事们设计了一种测试方法。他们只检测进入算法的数据以及算法给出的决策。“我们的方法并不关注机器学习算法的内部,” Srebro 说,“我们只关注它做出了什么决策。”
(图片来自 udemy)
这个方法基于一个基本原则:当算法做出与某人相关的决策时,它只能揭示数据提供的内容,而不能暴露个人的种族或者性别。例如,在偿还银行债务方面,男性拖欠债务的比例远远超过女性,那么,当数据库里的某人拖欠债务,你可能会推论,那很可能是一个男人。但是,如果你推断说,银行的最佳策略是拒绝所有男性的贷款请求,那么,该决策就精确定位了个人的性别。“这可以视为不合理的歧视,” Srebro 说。
针对这个方法,有人提出了质疑。他们认为,这等于是绕过了机器算法的决策过程,使其缺乏任何的透明性。西英格兰的机器人道德学教授 Alan Winfield 说,“设想一下,如果某个案件涉及到机器算法的决策,法庭将需要专家证人解释算法做出决策的理由。”
不过,他也承认,如果要求机器决策的绝对透明度,那肯定会引起深度学习社群的强烈抗议。谢菲尔德大学机器人和人工智能学教授 Noel Sharkey 同意这种观点。“如果你要找出输油管道的最佳方案,机器学习是个很好的选择,但是,在我们深入了解算法如何产生偏见之前,我会很在意它做出一些影响人们生活的决策。”
题图来自 acm