年终盘点:这一年,人工智能在争议中前行( 四 )


重视伦理争议 行业规范待定
伴随人工智能的高歌猛进 , 相关的“噪音”也越来越多 , 比如数据隐私、AI偏见、AI造反……相关话题引发了数次讨论甚至恐慌 , 人们开始疑问:AI是不是太强了?它会失控吗?
麻省理工学院媒体实验室曾出品一个名叫诺曼的“暗黑版AI” , 它会以负面想法来理解它看到的图片 。 团队希望通过诺曼的表现提醒世人:用来教导或训练机器学习算法的数据 , 会对AI的行为造成显著影响 。
但其实 , 当人们谈论人工智能算法存在偏差和不公平时 , 罪魁祸首往往不是算法本身 , 而是带有偏差、偏见的数据 。
偏见、刻板印象、歧视这些人类社会的痼疾 , 已经深入社会肌理 。 在这样的语境中产生的数据 , 携带着大量复杂、难以界定、泥沙俱下的观点 。 如果研究者没有意识到或着手处理这一问题 , 机器学习的偏见几乎无解 。 真正的“公正算法”或许是不存在的 。 但通过正确地校准标签、数据的均衡和可靠等 , 机器出现偏见、谬误甚至失控的可能会相应减少 。 此外 , 研究者也应该着手建立一种预防的机制 , 从道德的约束、技术标准的角度对人工智能进行价值观的干预 。
还有一个重要的忧虑来自隐私 , 相对于AI的偏见或失控 , 人类对隐私的担忧要真实可感地多 , 毕竟 , 我们每天的吃住行都已经充分数字化 , 与之相伴的隐私暴露风险也指数级上升 。
目前 , 国内从消费电子领域到安保、数字金融等领域都在逐步引入人脸识别 , 特别是随着“刷脸支付”的普及 , 用户的姓名、性别、年龄、职业等身份信息 , 甚至用户在不同情境状态下的情绪等信息都被机器收集 。 这些信息如果得不到妥善保管而被泄露 , 用户个人信息就处在“裸奔”状态 。 保护公民个人信息的安全 , 需要管理者、相关行业企业、公民个人的协同努力 。 目前在人脸识别技术领域 , 我国尚无相应的安全监管机制 , 应及早筹谋 , 完善法律法规、提升应用程度及存储设备的安全程度、强化网络安全和信息保护意识、规范行业信息收集标准等 。 (采访人员 崔 爽)

推荐阅读