审视人脸识别:一种AI技术的全球性滥用( 四 )


这些存在感愈发强烈的声音 , 也促使着该领域的一部分研究者重新反思 。
开始分化的学界
今年 , 针对人脸识别研究存在的棘手伦理问题 , Nature 对全球 480 位从事人脸识别 / 计算机视觉 / 人工智能工作的研究人员进行了一次问卷调查 。
这也是 Nature 首次进行这类性质的调查 。 结果显示 , 该领域的学者已经出现观念分化:一些科学家十分关注该领域的工作道德规范 , 但另一些科学家仍然认为学术研究没有问题 。 在某些问题上 , 受访者表现出明显的偏好 。
当被问及对将人脸识别用于预测个人特质(例如性别、性别认同、年龄或种族)研究时 , 约三分之二的人表示 , 此类研究应在数据被收集者同意的情况下进行 , 或与可能受影响的群体的代表进行充分沟通 。
但是在这以外的问题上 , 分歧明显出现 。 大约 40%的受调查学者认为 , 在收集人脸数据之前 , 研究人员应征得个人的知情同意 , 而超过一半的人认为这并不必需 。
瑞士马蒂尼 Idiap 研究所生物识别小组负责人 Sébastien Marcel 认为 , 研究人员应获得知情同意 , 但实际上却很难保证 。 他所在的小组不会在网络上抓取人脸图像 , 但是会使用其他人已发布的在线图像数据集 。 “许多研究人员会回避这件事:他们认为这不是他们的问题” , 他说 。
Springer Nature 期刊政策总监 Ed Gerstner 说 , 出版商正在考虑采取何种措施来阻止研究使用不经被采集者明确授权的数据集 。
Nature 调查还询问该领域的研究者 , 即使获得知情同意 , 对敏感人群(如受到严密监视的难民或少数群体)的人脸识别研究是否仍然存在伦理问题 。 总体而言 , 71%的人表示同意 。
一些持相反观点的研究者 , 则试图在学术研究和人脸识别的使用方法之间做出区分 。 他们强调 , 重点应该放在谴责和限制人脸识别的不道德应用上 , 而不是限制研究 。
伦理学家自然认为这种区分是幼稚的 。 “这是一种 ‘ 我只是个工程师 ’ 的心态 , 但现实已经远远超越了这个界限 。 ” 康奈尔大学的社会学家 Karen Levy 评价道 。
那么 , AI 学界应该对有道德问题的研究采取什么措施?
最受欢迎的答案是 , 在同行评审的过程中 , 应该明确询问该研究是否合乎伦理 , 例如该研究是否事先获得伦理学机构的批准(例如 IRB , Institutional Review Board , FDA 等监管机构对生命科学实验的管理采用了这种机制) 。 几乎一半的受访者认为应该这样做 , 另有四分之一的人认为这取决于具体的研究 。
显然 , 本文开头所提到的 NeurIPS 和 Nature Machine Intelligence 组织方 , 属于前者 。
Karen Levy 希望人脸识别的学者能早日意识到他们所从事的工作的含义 。 “这像是科学界真正觉醒的时代 。 人们更加敏锐地意识到 , 他们所研究的技术可能会被不当使用” , 她说 。
Refrence:
[1]https://www.nature.com/articles/d41586-020-03186-4?WT.ec_id=NATURE-20201119&utm_source=nature_etoc&utm_medium=email&utm_campaign=20201119&sap-outbound-id=019328369D84347F1430B510799D96391BEF27DF
[2]https://www.nature.com/articles/d41586-020-03188-2
[3]https://www.nature.com/articles/d41586-020-03187-3#ref-CR2
[4]https://www.ft.com/content/cf19b956-60a2-11e9-b285-3acd5d43599e

推荐阅读