目前,人脸识别系统在执法、边境控制和其他社会应用领域的使用正在迅速增长。之前就有几项学术研究表明,人脸识别算法在流行的商业体系存在种族和性别偏见。
最近,美国联邦政府一项新的研究证实了这些早期结果。根据美国国家标准与技术研究院(NIST)的研究,世界上许多顶尖的面部识别算法都存在年龄、种族和民族偏见。研究显示,目前市场上出售的算法识别某些特定人群的错误率是识别其他人群的100倍。
图 | 边境警察检查护照(来源:麻省理工科技评论)
NIST表示,他们的“实验数据”表明,年龄、性别和种族等特征会影响“大多数”算法的准确性。该小组测试了来自99个组织的189种算法,这些算法为全球大多数面部识别系统提供支持。
据《华盛顿邮报》报道,立法者称该研究结果“令人震惊”,并呼吁美国政府重新考虑使用该技术来保护边境安全的计划。
“令人震惊”的研究结果
NIST研究了目前在美国政府应用中使用的四组面部数据: 美国居民的面部照片;申请移民福利人士的申请照片;申请签证人员的申请照片,以及穿越边境进入美国的申请照片。
总的来说,数据库包括了 1827 万张图片,涉及 849 万人,是迄今为止最全面的评估。
这项研究测试了“一对一”识别和“一对多”搜索。“一对一”就是把某人的照片与数据库中同一个人的另一张照片进行匹配,它一般是用于解锁智能手机或执法部门检查护照;“一对多”则是将某个人与一个更大数据库中的单个记录匹配,这经常被警察部门用来在调查中识别嫌疑犯。
在一对多的搜索中,非裔美国妇女最常被错误地识别,而亚洲人、非裔美国人、印第安人和太平洋岛民在一对一的搜索中经常被错误识别。儿童和老年人的错误识别率也相对更高。在某些情况下,亚裔和非裔美国人被错误识别的概率是白人的 100 倍。一般来说,中年白人男性的准确率最高。
人脸识别还没做好准备
研究结果进一步证明,世界上许多最先进的面部识别算法仍不具备在执法和国家安全等关键领域使用的条件。NIST 的研究是迄今为止最全面的评估,调查结果对这些系统是否应该继续如此广泛地使用提出了疑问。
NIST 研究测试的算法是这些组织自愿提交的。但向当地警方和联邦调查人员销售Reko面部识别软件的亚马逊并没有提交相关算法。此前就有研究对亚马逊面部识别系统的准确性提出了担忧。
2018 年 7 月,美国公民自由联盟(American Civil Liberties Union)测试了亚马逊的面部识别系统,结果系统将28名国会议员识别成了罪犯。人工智能研究人员呼吁亚马逊停止销售其“有缺陷”的系统。但亚马逊声称,它的软件不是 NIST 的测试可以轻易分析的(尽管拥有类似产品的科技公司提交算法是没有问题的),其股东也抵制了要求限制Reko销售的呼声。
要尊重人们的安全和隐私
专家表示,这些算法中的偏差可以通过使用更多样化的训练数据来减少。例如,研究人员发现,亚洲国家开发的人脸识别算法表现更好,在亚洲人和白人之间的错误率差别很校
然而,即使解决了算法偏见,也不能解决面部识别的所有问题,因为这项技术的使用方式没有尊重人们的安全和隐私。
(来源:麻省理工科技评论)
Joy Buolamwini 是一名人工智能研究人员,他在去年接受采访时表示,他一直在研究面部识别的偏见问题。“发展面部识别技术并将其武器化有什么好处?技术应用不能脱离其社会影响,”他说。
现在,需要政策制定者来找出监管这些技术的最佳方式。NIST还敦促人脸识别的开发者进行更多的研究,以减少这些偏见。
编辑:李亚山
参考:
https://www.theverge.com/2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon
https://www.theverge.com/2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition
https://www.technologyreview.com/f/614986/ai-face-recognition-racist-us-government-nist-study/