欧洲拟严格监管高风险AI技术


欧洲拟严格监管高风险AI技术



据美国《科学》杂志网站19日报道, 欧盟委员会发布新计划称, 将制定法律严格监管高风险人工智能(AI)技术, 更新欧盟2018年AI发展战略, 未来在AI研发领域投资数十亿美元等, 以进一步促进欧盟AI产业发展 。
该委员会将起草新法律, 管理AI技术的高风险应用, 例如在医疗设备、自动驾驶汽车内的应用等 。 尽管这些法律将比欧盟以往发布的任何法律都更广泛且更严格, 但欧洲委员会主席乌尔苏拉·冯·德·莱恩表示, 这些法律的目的是促进“信任, 而非恐惧” 。
与美国相比, 欧洲对AI采取的态度更为谨慎, 欧盟官员希望通过监管赢得消费者的信任, 从而推动AI技术的广泛采用, 帮助欧洲在国际AI技术竞争中脱颖而出 。
欧盟委员会指出, 确定某些应用是否是“高风险”应用有一套准则 。 例如, 是否会导致人受伤、或者会导致人对机器人决定(如AI用于招聘或警务活动)没有任何发言权 。 欧盟委员会希望, 高风险应用需要人工监督 。
法律还将确定谁为AI系统的行为负责:使用AI系统的公司还是设计AI系统的公司 。 高风险应用程序必须被证明遵守法规, 才能在欧盟内广泛使用 。
此外, 这些法律还将管理用于训练AI系统的大型数据集, 以确保它们合法采购、来源合法 。 欧盟委员会反垄断专员玛格丽特·维斯塔格说:“AI系统可靠的基础是技术强大且准确 。 ”
欧盟委员会表示, 将就“面部识别AI系统在欧洲范围内开展一场广泛的讨论” 。 尽管德国等欧盟国家已宣布部署这些系统的计划, 但官员们表示, 这些系统经常违反欧盟隐私法, 包括有关警察工作的特别规定 。
新AI计划不仅涉及法规, 欧盟委员会还将提出一项“行动计划”, 将人工智能整合到交通和医疗等公共服务中, 并将更新欧盟2018年人工智能发展战略, 该战略拟投入15亿欧元用于AI研究 。 此外, 欧盟委员会呼吁开展更多研发, 包括创立AI“卓越和测试中心”, 投资数十亿美元建立新型AI产业合作伙伴关系等 。
【欧洲拟严格监管高风险AI技术】在接下来12周内, 专家、游说团体和公众可对此发表意见, 随后欧盟委员会开始草拟具体法律法规, 最终法规需要得到欧洲议会和成员国政府批准, 预计今年不太可能完成 。 (采访人员刘霞)

    推荐阅读