人脸辨识也会引起种族歧视?美国国家标准暨技术研究院(NIST)研究近两百种脸部算法后,发现人脸辨识系统在辨别非白人时会产生较大的误差,因应人脸辨识被普及用在执法与身分辨识验证,这项发现很有可能会引发应用上的疑虑。
根据《华盛顿邮报》报导指出,目前的脸部辨识系统,对亚裔、非裔美国人的误判机率比白人高出100倍左右,这些错误很有可能会让运用人脸辨识系统进行验证的银行、边境管制、机场系统等遭有心人士利用或导致误判,特别是在执法时面临一些「种族偏见」问题上更加敏感。
目前算法有两种误判状况:分别为假阳性与假阴性,可能会错把两人辨识为同一人,除了肤色,性别、年龄也有可能会是造成人脸辨识系统误判的因素之一,其中又以非裔美国女性误判机率最高。NIST验证了目前的算法中存在种族与性别偏见,也让民众对辨识系统的可信度产生动遥
NIST表示,他们交叉算法采样来自各家知名科技公司,不过,其中值得注意的是,亚马逊并未将算法提供给NIST。除了找出为何算法会产生种族歧视的原因,其会带来的影响也不容忽视,美国近期在边境管制上大量运用人脸辨识系统作为验证系统,NIST认证辨识系统存在瑕疵后,美国会议员也呼吁应该审慎评估这项运用。