
欧盟委员会4月8日发布人工智能伦理准则 , 以提升人们对人工智能产业的信任 。 欧盟委员会同时宣布启动人工智能伦理准则的试行阶段 , 邀请工商企业、研究机构和政府机构对该准则进行测试 。
该准则由欧盟人工智能高级别专家组起草 , 列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制 , 以确保人工智能足够安全可靠 。 欧盟将“人工智能”定义为“显示智能行为的系统” , 它可以分析环境 , 并行使一定的自主权来执行任务 。
【欧盟发布人工智能伦理准则】根据官方解释 , “可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠 , 避免因技术不足而造成无意的伤害 。 举例来说 , 如果人工智能在未来诊断出一个人患有某种病症 , 欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断 , 也不会无视人类医生的反对意见 , 患者可以自行选择获得对诊断结果的解释 。
欧盟数字经济和社会专员玛利亚·加布里尔表示 , 算法做出的任何决定都必须经过验证和解释 。 当保险公司的系统拒绝了一次索赔后 , 客户应当能详细地知晓缘由 。 加布里尔还强调 , 还需要确保人工智能系统的公平 。 如果招聘系统使用的算法是由一家仅雇用男性员工的公司数据生成的 , 其算法就可能会筛除女性应聘者 , “这样带有偏见的数据输入将会带来伦理困境” 。
对于这份准则 , 欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普表示:“符合伦理标准的人工智能将带来双赢 , 可以成为欧洲的竞争优势 , 欧洲可以成为人们信任的、以人为本的人工智能领导者 。 ”
欧盟此举也受到一些质疑 。 非营利组织“算法观察”联合创始人马蒂亚斯·斯皮尔坎普认为 , 尽管制定准则是一个好主意 , 但准则围绕的核心——“可信赖人工智能”这一概念的定义尚不明确 , 且目前还不清楚未来的监管如何实施;还有业内人士担心 , 准则过分细化会使许多公司尤其是中小型企业难以操作;此外 , 参与了准则起草工作的德国美因茨大学哲学教授托马斯·梅辛格对于欧盟没有禁止使用人工智能开发武器表示批评 。
《人民日报》( 2019年04月11日 17 版)
推荐阅读
- 人工智能发展之路还很长
- 未来二十年人工智能怎么发展?何积丰院士描绘三条路线图
- 人工智能:不再追求酷炫 更加注重实用
- 迈向“无人农场”——福建发布人工智能农业机器人
- 从一到百并不简单 人工智能星座还在路上
- 多商品重叠,人工智能如何计数?
- 人工智能首次实现 多重量子关联的同时分类
- 突破关键核心技术 让人工智能更智慧
- 人工智能,让机器也会“感情用事”
- 人工智能可以解决困扰科学家许久的“三体问题”