谁才是让AI产生偏见的幕后推手?( 二 )


2019年12月 , 美国国家标准技术研究院进行的一项研究发现 , 在大多数当前评估的人脸识别算法中 , 跨人种差异确实存在广泛的准确性偏差 。
柯逍介绍说 , 在算法设计的时候 , 往往会选择L1损失函数或者L2损失函数 。 若在将一个低分辨率人脸图像还原成高分辨率人脸图像的方法中 , 使用L2损失函数 , 得到的大多数人脸图像更像白人;而使用L1损失函数 , 得到大多数人脸图像更像黑人 。 这说明由于损失函数的选择不同 , 某个群体(黑人或白人)在一定程度上就会受算法的忽视 , 进而产生偏见 。
这当中还存在另一种情况 , 假如数据带有少量的偏见 , 算法系统会将其放大 , 并变得更具有偏见 。 一项研究表明 , 如果初始数据中 , 下厨与女性的联系概率是66% , 将这些数据喂给人工智能后 , 其预测下厨与女性联系起来的概率会放大到84% 。 一般来说 , 机器学习系统会选择最符合通用情况的策略 , 然而这样会导致一些非典型情况或较为特殊情况被忽略 。
除此之外 , 产生偏见的原因还有相似性的偏见 。 信息推送系统总会向用户推荐他已经看到、检索过的相关内容 。 最终的结果是导致流向用户的信息流都是基于现存的观点和看法 。 “系统会自动帮助用户屏蔽与他们意见相左的信息 , 这就催生了一个信息泡沫 , 用户看到的都是人工智能让你看到的 。 这种偏见根本上也是数据与算法共同作用产生的 。 ”柯逍说 。
“总体而言 , 偏见还是源于规则制定者 。 ”中锐网络人工智能产品总监叶亮说 , 工程师从头到尾参与了整个系统设计 , 尤其是机器学习的目标设定 。 算法就好像一只嗅探犬 , 当工程师向它展示特定东西的气味后 , 它才能够更加精准地找到目标 。
算法纠偏工具已经上岗
近期 , 国际多家机构相继宣布禁用人脸识别技术 。 有色人种被还原成白人的事件 , 再次掀起了人们对于人工智能系统产生偏见的批判浪潮 , 也再次警醒人们 , 技术带有偏见所带来的潜在危机 。
偏见可能导致无辜者蒙冤 。 在2018年夏天 , 英国媒体就报道过 , 由于人脸识别技术的误判 , 导致一名年轻黑人男性被误认为嫌疑犯 , 在公众场合被警察搜身 。
也有报告显示 , 一些国外执法机构可以根据AI识别出的发色、肤色和面部特征对视频中的人物进行检索 。 这种技术上的偏见也在一定程度上放大了人们的偏见 。
除了对人种与性别的识别偏差之外 , 人脸识别技术还因其在侵犯隐私方面的问题而引起担忧 。 2020年初 , 美国一家人脸识别技术公司便受到了严密的审查 , 有关部门发现 , 其面部识别工具由超过30亿张图像构建而成 , 然而这些图像大部分都是通过抓取社交媒体网站收集的 , 并且已被许多企业广泛使用 。
偏见存在的同时 , 一批新兴的算法纠偏工具也涌入了人工智能 。
早在2018年 , 脸书曾发布一个算法模型 , 表示会在算法因种族、性别、年龄等因素做出不公正判断时发出警告以提醒开发者;2019年麻省理工学院就提出了一种纠偏算法 , 可以通过重新采样来自动消除数据偏见 。
那么克服偏见还需要人工智能技术做出哪些努力?“开源方法和开源技术都有着极大的潜力改变算法偏见 。 ”叶亮指出 , 开源方法本身十分适合消除偏见程序 , 开源社区已经证明它能够开发出强健的、经得住严酷测试的机器学习工具 。 如果线上社团、组织和院校能够接受这些开源特质 , 那么由开源社区进行消除算法偏见的机器设计将会顺利很多 。
柯逍认为 , 可以看出偏见基本来源于数据与算法 , 加强对人工智能所使用的数据、算法以及模型的评估 , 能够在一定程度上缓解潜在的、可导致偏见与歧视的因素 。 同时 , 人工智能的偏见其实都是人类偏见的反映与放大 , 因此人们放下偏见才是最根本的解决方案 。

推荐阅读