展会信息港展会大全

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?
来源:互联网   发布日期:2019-08-16 16:02:33   浏览:11967次  

导读:大数据文摘出品 编译:李琳、橡树_Hiangsug 面部识别系统流行于九十年代早期,当时美国国防部希望发明一种可以发现偷渡边境的不法分子的识别技术,为此投入了大量研究。为此,美国国防部为著名的大学科学家和面部识别领域的专家提供了研究经费。为此,美国国...

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?

大数据文摘出品

编译:李琳、橡树_Hiangsug

面部识别系统流行于九十年代早期,当时美国国防部希望发明一种可以发现偷渡边境的不法分子的识别技术,为此投入了大量研究。为此,美国国防部为著名的大学科学家和面部识别领域的专家提供了研究经费。为此,美国国防部为著名的大学科学家和面部识别领域的专家提供了研究经费。

2001年初,在坦帕(Tampa)举行的第35届超级碗(Super Bowl)比赛中,执法部门首次在公共场所使用面部识别技术,在数千名观众中搜寻罪犯和恐怖分子。不久之后,美国的其他敏感地区也安装了面部识别系统,以跟踪犯罪活动。

然而,美国政府的研究却表明,即使是最先进的面部识别系统在识别黑人时的错误率也要比识别白人时高出十倍。

即便是最先进的算法,在检测黑人时还是更容易出错

法国公司Idemia的面部识别算法被用于识别数以百万的人脸。美国、澳大利亚和法国的警方都是这家公司的客户。Idemia的软件被用于识别曾在美国海关和边境保护局留下负面记录的旅客。2017年,一位FBI高层在向报告国会的报告中称扫描了三千多万人脸的Idemia技术对“保护美国人民的安全”大有帮助。

然而,Idemia的算法并不能总是公平清晰地对所有面部进行精准识别。美国国家标准技术研究所(National Institute of Standards and Technolog, 简称NIST)的测试结果表明,相较于白人男性和女性,即便是Idemia最先进的算法,在检测黑人时还是更容易出错。

NIST利用同一个人的两张照片对算法进行了测试,过程类似海关工作人员查验护照的流程。在敏感性上,Idemia的算法识别白人女性人脸的出错率是万分之一,识别黑人女性人脸的出错率则是千分之一比前者高了十倍。

而万分之一的出错率通常是被用于评估评价面部识别系统的标准。

美国公共安全部在Idemia的负责人Donnie Scott表示,NIST所测试的算法并未投入商用,并且,公司在产品开发的过程中会进一步检测人口差异。他认为,(测试白人和黑人时)结果上的差异性,很可能是由于开发测试工程师在测试过程中一味追求接近NIST期待的正确率,“人与人之间有生理差距,但算法会在识别不同人群方面取得进步”。

计算机视觉算法从未在识别人脸上表现得如此出色。NIST去年表示,在2010年至2018年间,最好的算法在大型数据库中找到一个人的能力提高了25倍,只有0.2%的情况下没有找到真正匹配的人。这使得面部识别算法得以被投入大范围的使用,包括政界、商界以及手机应用(如苹果的面部识别解锁)。

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?

然而,包括NIST的测试,以及其他的各类调查研究都表明,算法在识别深肤色人群时更容易出错。

在调查了50多家相关公司之后,NIST在七月的报告中指出,很多面部识别方面的顶级公司算法都有和Idemia类似的“识别黑人时出错率高十倍”的问题。

NIST发布了自2017年初以来的面部识别系统人口测试统计调查报告结果,除了人种问题,该机构还发现系统在识别女性上比男性更加困难,部分观点认为是女性化妆所致。

报告表明,白人男性在人口统计结果上识别错误率(false match rate, FMR)最低,而黑人女性FMR为最高。

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?

NIST计划在今年秋天发布另一详细报告,将对面部识别技术在面对不同人口族群时的性能测试结果做出详细阐述。NIST的研究被认为是评估面部识别算法的最高标准,所以在报道中获得高评价的公司可以获得强大的背书。

Idemia 在今年三月份举行的发布会上表明,比起同类产品,在服务美国联邦政府客户上,该公司的软件表现更佳。

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?

相较白人面孔,许多面部识别算法更容易混淆黑人面孔。每个图表都代表了NIST测试的一种不同算法。图表最上方的红色实线表明,算法对于黑人女性人脸的错误率高于其他种族。

美国国土安全部(DHS) 同样发现识别深色皮肤人群是商用面部识别系统面临的一项大挑战。二月,DHS发布了十一家被用于识别身份的商用面部识别系统的调查结果,结果表明系统的表现和肤色相关,系统通常需要更长的时间来处理皮肤较深的人,而且识别它们的准确性较低。

民权人士希望禁止政府使用该技术

政府回应了来自ACLU和MIT的研究者于2018年所进行的旨在公开警惕该技术的关键研究。调查指出:亚马逊,微软和IBM的算法在以深肤色人群为对象时出错率更高。

这些研究结果引发了有关面部识别系统是非功过的国民讨论。一些民权人士,立法者和政策制定者希望能禁止政府使用该技术。

他们担心的主要问题包括隐私安全问题、政府和国民间的权利平衡问题以及系统在处理结果上的种族差异问题。而一些评论家表明,即使面部识别系统对所有种族“一视同仁”,也仍然有禁止这项技术的理由。

尽管相关讨论仍在膨胀,面部识别系统已经在许多联邦、洲和地方政府的各个部门推行使用,而这个范围还将持续扩大。美国政府在边检以及搜捕非法移民时都会使用这项技术。

面部识别系统的种族差异会影响治安维护

今年初,洛杉矶警方处理了一起入室抢劫并枪击伤人的案件,两名嫌疑犯一名被捕一名逃逸。而警探用一张嫌犯的在线照片搜索了洛杉矶治安官办公室运营的嫌疑犯面部识别系统,最终确定了嫌犯身份。

治安官办公室的Lieutenant Derek Sabatini认为这起案件表明了现在正被五十多个县机构所使用、保存了一千二百万犯罪者档案的面部识别系统的价值。Sabatini表明,警探没办法像系统那样快速锁定犯罪者。“谁知道人力要花多久,如果那样的话我们说不定就抓不住嫌犯了。”

黑人女性报错率比白人高20%,面部识别系统为何不能一视同仁?

Cognite算法部门的总监Thorsten Thies承认了算法在面对不同肤色人群时的差异性,但表示这种差异性不好解释。其中一个原因可能是“为深肤色人群拍一张好的照片相对于白人较难”。不管背后的原因是什么,在结果上扭曲的算法必然导致治安维护上的种族差异。而Sabatini表明,治安官们在会谨慎认真处理测试结果,并会在采取行动之前找寻更多支持证据。他说“我们从2009年开始使用这套系统,从未遇到任何问题。没有官司,没有错断,没有投诉”。

有关面部识别系统与种族问题的担忧并非忽然发生。早在2012年,FBI高级面部识别专家合著的研究论文就表明了商用面部识别系统在识别黑人和女性时的出错率更高。

乔治城大学的研究者在2016年的一项有影响力的报告中指出FBI可以搜寻将近一半以上的美国人口的面部数据。当面部识别系统的使用更加频繁时,这项技术所带来的问题也更加受人关注,而政策制定者们更倾向于限制这项技术。在反对的声音中,MIT的研究员、社会活动家Joy Buolamwini特别具有影响力。

2018年年初,Boulamwini和其同事,AI研究者Timnit Gepu表明微软和IBM从照片中识别性别的服务以肤色偏白的男性为对象时表现几乎完美,而当对象为黑人女性时出错率则高出百分之二十。

其后的一项研究发现亚马逊的服务也有类似的问题。而亚马逊在一篇语气激烈的文章中形容该研究“有误导性”,解释结果是由于面部分析系统进行面部识别任务时,由于系统的使用目的不同,两种系统所提取的特征不同,自然会导致系统的测试性能“显得”不佳。

Boulamwini是今年五月监督和改革委员会的主要见证人之一。会上,立法者们表示出两党对规范面部识别技术的极大兴趣。主席Elijah Cummings (马里兰州) 表示,测试结果中的种族差异加剧了他对2015年巴尔的摩抗议活动中警察如何使用面部识别系统的担忧,案件中警察拘留了一名黑人弗雷迪格雷。之后Jim Jordan(俄亥俄州)表示国会应该对政府使用这项技术“做出行动”。“如果面部识别系统出错并且给非裔美国人以及有色人种带来负面影响,在我看来,这就是对美国第一宪法修正案以及宪法修正案第四条的直接违反”。

为什么面部识别系统识别深色人脸时出错率更高

为什么面部识别系统在辨别有较深肤色的人脸时出错率较高的原因仍不明确。Boulamwini 告知国会,企业所使用的训练面部识别系统的数据库也许并不具有足够的代表性。最简单且能收集到大量人脸数据的地方是网络,而网络上充斥着西方的、白人的、男性的面部图像。IBM的一篇评论文章指出,最经常被学术研究所引用的的三个人脸数据库中,有高于百分之八十一的人有着浅色的皮肤。

而负责NIST的测试,在面部识别领域广为人知的Patrick Grother表明还有其他原因也会造成系统识别深色皮肤变得更加困难,其一便是照片质量。从彩色胶片时代到数码时代,照相技术一直都会优化肤色较浅的人拍出的图像。在十一月的一个会议上,他还指出了另外一个具有挑衅性的假设黑人的面部趋向于有更高的相似性。“在基因学上,不同的种族在外观上会有不同。”

佛罗里达理工学院的副教授Michael King则无法对此表达确定:“这一点问题我们还没办法进行讨论。因为我们的研究还没有进行到那一步。”这位研究者此前曾为美国情报部门做过包括面部识别技术的相关工作。

King的最新研究与FIT以及圣母大学的研究者合作,调查了面部识别系统在面对不同种族时的差异性,并对此提出了解决方案。

他们的研究用53000张犯罪档案照片测试了包括两个商用和两个开源系统在内的四个面部识别系统。结果表明,将一个人认成另一个人的识别错误对于黑人来讲更加普遍,而对于白人人脸来说无法识别系统中已有的犯罪者的资料的几率更大。相比起白人,无法达到ID照片标准的黑人的照片数量更多,但只凭这一点无法解释系统偏差。

只有变更灵敏度设定才能让测试结果一样

研究者们发现,只有变更灵敏度设定才能使得白人和黑人的测试结果一样。但是这一操作方法不太可能在实验室外实施,因为让警探在面对不同种族的对象时使用不同的敏感度设定本身就有歧视的危险,并且可能会导致种族问题上的官司纠纷。

当King和其他研究者认真地在实验室里探寻算法的秘密时,关于面部识别技术的政治斗争正在紧凑进行着。考虑到该技术在对象为少数族群时的出错率,两党的国会议员都作出了会限制面部识别技术使用的承诺。本周二,奥克兰成为了继萨默维尔,马萨诸塞和旧金山之后第三个禁止其公共机关使用面部识别技术的美国城市。而King表示,使得面部识别技术能够公平地识别所有种族对象的研究会按照自己的步调进行。他说“使得系统在处理所有种族时的正确率一致,或者是发掘这种可能性,都会是一个长期的目标”。

相关报道:

https://www.wired.com/story/best-algorithms-struggle-recognize-black-faces-equally/?verso=true


赞助本站

相关热词: 面部识别 黑人 算法

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港