可解释的人工智能与良好公共政策之间的紧张关系
Diane Coyle
世界各地的政府和机构越来越依赖人工智能。美国、英国和其他地方的警察部门已经开始使用面部识别技术来识别潜在的嫌疑人。法官和法院也已经开始依靠机器学习来指导判决。在英国,据说每三个地方政府中就有一个使用算法或机器学习(ML)工具来决定诸如福利待遇申索之类的问题。政府对扔工智能的这些应用非常广泛,以至于人们不禁要问:这是一个按算法管理的时代吗?
许多批判人士对刑事公正和福利等敏感政策领域迅速扩大使用自动决策表示担忧。其中最常表达的担忧是偏差问题:当机器学习系统在有偏差的数据集上进行训练时,它们不可避免地将数据潜在的社会不平等嵌入模型之中。数据科学和人工智能社区现在对数据偏差问题高度敏感,因此开始更加关注人工智能的伦理问题。同样地,个别政府和国际组织也发表了旨在管理人工智能使用的原则声明。
人工智能伦理的一个共同原则是可解释性。产生扩大社会偏见的人工智能的风险促使人们提高算法或机器学习决策过程的透明度。随着人工智能系统的使用激增,能够解释一个给定的模型或系统是如何工作的将是至关重要的,特别是对于那些由政府或公共部门机构使用的模型或系统。然而,光靠解释并不是灵丹妙药。虽然决策过程的透明度对于民主至关重要,但认为这是解决算法决策将给我们的社会带来的困境的一种简单解决方法是错误的。
原因有两个。首先,对于一般的机器学习,特别是神经网络或深度学习,在性能和可解释性之间往往会有一个权衡。模型越大、越复杂,就越难解释,尽管它的性能通常更好。不幸的是,对于具有许多交互影响的复杂情况,策略的许多关键领域都是如此,机器学习往往越是黑匣子就越有用。因此,追究这些系统的责任几乎总是一个事后监测和评价的问题。例如,如果一个给定的机器学习算法的决策有明显的偏差,那么系统或其所训练的数据则需要进行修改。然而,即使是事后审计,说起来容易做起来难。在实践中,令人惊讶的是,几乎没有对政策结果进行系统的监测,尽管在如何监测方面并不缺乏指导。
第二个原因是一个更为重大的挑战。许多政策的目的往往不明确,典型的原因是政策是追求不同目标的人之间的妥协。当算法的任务是执行政策决策时,公共政策中的这些必要妥协对其提出了挑战。公共政策中的妥协并不总是坏事;它使得决策者既能解决冲突,又能避免对所期望的确切结果提出尖锐的问题。然而,这是算法的一个主要问题,因为他们需要明确的目标才能发挥作用。强调更大的模型可解释性永远无法解决这一挑战。
在自动决策或预测的许多领域,目标的困境不会突然出现,在这些领域中,受影响和运行苏阿法的人的利益是一致的。然而,在公共决策的大多数领域,存在着多重重叠,有时甚至是相互竞争的利益。通常也存在信任缺失,特别是在刑事司法、治安和福利政策方面。在这种情况下,相信以算法强制实现的目标透明度将解决政治冲突是极其天真的。在部署机器进行决策之前,第一步不是坚持算法的可解释性和透明度,而是恢复机构自身的可信度。
https://www.pookings.edu/techstream/the-tensions-between-explainable-ai-and-good-public-policy/
本文译者:梁少娴,厦门大学法学院2020级硕士研究生,厦门大学法学院法律认知、数据与智能研究中心(实验室)学生助理。
本文刊载于吴旭阳主编:《法律认知、数据与智能通讯》(电子版)2020年10月期。
转载请注明出处。