审视人脸识别:一种AI技术的全球性滥用( 二 )


当人脸识别大规模铺开使用摁下了加速键之后 , 越来越多人意识到 , 人脸识别的方向和速度产生了偏差 。
抵制人脸识别的关键词之一:
偏见
根据任务 , 现代人脸识别系统可以简单划分为两类:将人脸与大型数据库进行匹配的一对多识别系统以及更简单的一对一验证系统 。 相较前者 , 一对一验证只涉及确认一个人与自己的照片相匹配 , 主要应用于解锁智能手机、护照检查之类的场景 。
一个典型的人脸识别系统 , 第一阶段会在图像中定位一个或多个人脸角度 。 例如 , 在各种照明条件下和从不同角度观看监视摄像机馈送中的人脸 , 下一个任务是 “标准化” 人脸 , 将被拍摄对象旋转为正面 , 保证照明良好的视图 。 这产生了一组人脸 “特征” , 可以与从现有人脸数据库中提取的人脸 “特征” 进行比较 。 通常包括在受控条件下拍摄的照片 , 例如警方使用的照片 。 由于要素表示形式是结构化的文件 , 计算机可以快速扫描数百万个文件以找到最接近的匹配项 。
无论是哪一类任务 , 自大约 10 年前将 “深度学习” 技术引入该领域以来 , 识别的准确性得到了极大提高 。 但是 , 这是否意味着人脸识别足够用于现实世界?
在人脸识别领域 , 有一个已经进行了 20 余年重要的基准测试 。 那就是由美国国家标准技术研究院(NIST)主导的国际权威人脸识别供应商测试 FRVT (Face Recognition Vendor Test) 。
NIST 拥有规模达到百万量级的人脸数据 , 且均来自真实业务场景 。 NIST 会根据自己的图像数据集来衡量学术机构或者企业提交的人脸识别系统性能 。 由于测试数据不公开 (盲测) , 参赛的算法团队无法利用测试数据做模型训练 , 相对于 LFW、MegaFace 而言 , FRVT 则更能体现测试的公正性 。
2019 年下半年 , NIST 发布了一份报告 , 描述了人脸识别在 2018 年期间的巨大进步 , 包括一对多搜索和一对一验证两大任务 。 NIST 图像小组负责人的电气工程师 Craig Watson 表示:“我们发现人脸识别的准确性有了显着提高 , 这很大程度上是得益于卷积神经网络的出现 。 ”
NIST 发现 , 算法现在可以从户外拍摄的个人资料图像中识别出人 , 并与数据库中的正面视图相匹配 , 其准确度已经和十年前最好的人脸识别软件识别正面图像相同 。 NIST 研究人员写道 , “这在人脸识别的长期研究中是一个里程碑” 。
但是 NIST 也证实了 2018 年一项捅破了 “纸窗户” 的研究 。
2018 年 , 计算机科学家 Timnit Gebru(美国人工智能领域仅有的几位黑人女性计算机科学家之一 。 )发表的研究结果 , 首次揭示了商业人脸识别系统的缺陷:人脸识别针对黑人、女性的错误率高达 21%~35% , 而针对白人、男性的错误率则低于 1% 。 黑人女性有 20%~30% 的概率被识别错误 , 产生误会 。 也就是说 , 如果是在警用安保等场景下 , 后果可能会非常严重 。
NIST 的数据库显示 , 被归类为非裔美国人或亚洲人的面孔 , 比被归类为白人的面孔被算法误认的可能性高 10-100 倍 。 与男性相比 , 女性被误判的概率会更高 。
NIST 科学家 Watson 说 , 这种不准确性很可能反映了每家公司训练数据库的组成不平衡 。 数据科学家通常将这种不平衡描述为 “垃圾进 , 垃圾出” 。
因此 , 大量要求暂停或禁止人脸识别软件的呼吁 , 都会频繁经常提到对人口统计学偏见的担忧 。
甚至在今年 6 月 , 全球最大的计算机科学学术共同体 ACM 也发表声明 , 敦促私人和政府停止使用人脸识别技术 , 因为 “基于种族 , 种族 , 性别和其他人类的明显偏见特征” , 将损害特定人口群体的个人权利 。

推荐阅读