展会信息港展会大全

人工智能给刑事司法系统带来了严重的风险
来源:互联网   发布日期:2020-12-02 09:14:51   浏览:7615次  

导读:人工智能给刑事司法系统带来了严重的风险 Anusha Rao 如今,人工智能对人们生活带来有意义且实质性的影响的能力比以往任何时候都要巨大。与此同时,其也导致了许多难以解决的多层面的问题的形成。 人工智能当前被实践应用的领域之一是法律、政府、治安和种族...

人工智能给刑事司法系统带来了严重的风险

Anusha Rao

如今,人工智能对人们生活带来有意义且实质性的影响的能力比以往任何时候都要巨大。与此同时,其也导致了许多难以解决的多层面的问题的形成。

人工智能当前被实践应用的领域之一是法律、政府、治安和种族等社会问题的交叉点:刑事司法系统。

在过去的几个月里,“黑人的命也是命”运动的兴起以及对种族关系、治安和结构性偏见的重新审视,使得美国刑事司法系统的问题暴露出来。虽然这是一个声称建立在公平正义原则上的机构和制度,但其实质上充满了对美国人中的黑人和棕色人种不成比例的偏见。由于社会结构的严重缺陷是的歧视性的警察、律师和法官的不公正持续存在,偏见成为了困扰刑事司法系统的最大问题之一。

刑事风险评估算法是被设计用来预测被告在未来因不当行为而面临风险的工具,包括他们再次犯罪的可能性或者出庭受审的可能性。它们是司法系统中最常用的人工智能的形式,在全国各地都有使用。

在收集了大量不同类型的关于被告人的数据,如年龄、性别、社会经济状况、家庭背景和就业状况之后,他们得出了一个对个人风险的“预测”,并给定一个具体的百分比,以表明被预测者再次犯罪的可能性有多大。这些数字被用来确定保释金,判刑甚至用以决定有罪抑或无罪。

它们最大的卖点是它们是客观的那些喜欢使用它们的人吹嘘数学代码的公正和无偏见的自然属性。法官可能会被情绪所影响并受到更严厉的惩罚,而算法却永远不会沦为这种不恰当和人性缺陷的牺牲品。

不幸的是,像人工智能的许多形式一样,它们受制于一个似乎无法控制的关于偏差的问题。人工智能中最大的偏差来源是糟糕的训练数据。现代的风险评估工具是基于历史犯罪数据的算法驱动的,使用统计方法来寻找模式和联系。如果一个算法是根据历史犯罪数据训练的,那么它将找出与犯罪相关的模式,但该模式是相关联模式而非因果关系模式。

这些模式往往代表着警察和司法系统中存在的问题。例如,如果一个算法发现低收入与高累犯率相关,那么它会给具有低收入背景的被告一个更高的预测值。正是那些被执法部门盯上的人群,如贫困社区和少数民族社区,会面临表明他们“更有可能”犯罪的更高的预测值的风险。这些预测值随后便会提交给法官,由法官据此作出保释和量刑的决定。

人工学习方法为算法生成更多有偏差的数据,放大并延续了偏差,从而形成了一个缺乏责任感的循环。因为对于很多算法来说,是无法理解其自身是如何做出决定的。

我们可以把一个首先应被视为一个人的复杂人类减少到一个数字的想法是令人震惊的。在社会中,我们把被监禁的人当作废物,提倡报复和惩罚而不是改造。我们使得人们几乎不可能恢复正常的生活,许多州剥夺了他们的投票权并损害了他们的就业机会。在人们的头上加上一个数字,会使得这个国家已经猖獗的少数民族社区的非人性化更加严重。

我通常会发现,对技术的恐惧源于对它的实际运作方式及其影响我们生活的能力的重大误解。人工智能是一个有价值的工具,有许多实际的和道德的应用。但是在刑事司法系统中使用风险评估工具会使得种族偏见长期存在,因此应该立即取缔该工具。

原作者:

Anusha Rao华盛顿特区学习认知科学院的学生;霍普金斯大学人工智能学会成员

https://www.jhunewsletter.com/article/2020/09/artificial-intelligence-poses-serious-risks-in-the-criminal-justice-system

本文译者:梁少娴,厦门大学法学院2020级硕士研究生,厦门大学法学院法律认知、数据与智能研究中心(实验室)学生助理。

本文刊载于吴旭阳主编:《法律认知、数据与智能通讯》(电子版)2020年10月期。

转载请注明出处。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港