“人工智能也是人类的镜子 。 那些不如人意之处 , 折射的往往都是人性的不完美 , 也给人类提供了在更深的层面反省自己的契机 。 这次亚马逊的案例就让人认识到原来即便在倡导了几百年男女平权的西方社会 , 性别歧视问题依然如此严峻 。 ”
最近 , 亚马逊招聘软件被爆出具有“重男轻女”的倾向 , 给女性求职者打低分 。 这一时刷新了人们对人工智能更加客观科学的看法 。 按照亚马逊研究团队最初的设想 , 给招聘软件输入100份简历 , 它会吐出前5名 , 然后公司就可优先雇用他们 , 这将大大缓解人力资源部门的压力 , 结果却事与愿违 。
现在不少大公司或许没有亚马逊这般“一揽子”解决选才问题的雄心 , 但在招聘过程中 , 通过人工智能来筛选简历、推荐岗位 , 却是习以为常的事 。 在许多招聘者看来 , 人工智能可以减少招聘人员主观意见的影响 。 但亚马逊的失败案例 , 为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训 。 同时 , 也促使人们反思技术伦理层面的算法公平问题 。 显然 , 在亚马逊的案例中 , 人工智能不仅继承了人类社会的偏见 , 而且把这种偏见进行了“提纯” , 使它更加“精准”而“直接” 。
更关键的是 , 人类的偏见经过算法“洗地”之后 , 又披上了貌似客观公正的“科学技术”的外衣 。 实际上 , 在有偏见的数据基础上训练出来的系统 , 也必然是有偏见的 。 比如 , 此前就爆出过微软的聊天机器人Tay , 在与网友的厮混中很快就学了满嘴脏话 , 以及种族主义的极端言论 , 在推特上咒骂女权主义者和犹太人 。 这提醒我们注意 , 算法处理的数据是具有人类社会特点的 , 发展人工智能也好 , 运用算法也罢 , 必须目中有“人” , 也就是要充分考虑到作为人工智能开发者的人类的局限性 , 以及这种局限性在人工智能中的“遗传” 。
有人说 , 孩子是父母的镜子 。 人工智能也是人类的镜子 。 那些不如人意之处 , 折射的往往都是人性的不完美 , 也给人类提供了在更深的层面反省自己的契机 。 这次亚马逊的案例就让人认识到原来即便在倡导了几百年男女平权的西方社会 , 性别歧视问题依然如此严峻 。
【AI犯错不可怕 反躬自省纠正它】人工智能不可能只在脱离现实人类语境的真空中使用 , 否则 , 人工智能也就失去了它的意义 。 而在可预计的将来 , 把人类自身推向完美也不过是美好的梦想 。 那么 , 如何克服人工智能自我学习中的这些问题 , 让不完美的人类创造出接近完美的人工智能 , 就成为必须攻克的重要课题 。
其实 , 以不完美创造完美 , 正是人类这个物种高明的地方 。 这一切的实现 , 不是靠反智的玄想 , 而是靠不断地打补丁和修复 , 在科技进步中克服科技前行产生的漏洞 。 2017年曾有报道披露 , 在GoogleImage上搜索“doctor” , 获得的结果中大部分都是白人男性 。 这实际上反映了医生总是与男性相连 , 护士总是与女性相连的社会现实 。 后来 , 通过修改算法 , 基本解决了这一问题 。
推荐阅读
- a锥什么梗
- 黄龙:不得不去的人间仙境
- 存量司机是什么意思
- 野外探险一定不能忘了这件东西!
- 湖洲属于那个省
- 海鲜锅,好吃不长肉,健康美容的做法步骤
- 核桃上的膜该不该剥掉
- 出境旅游不要犯这些错误
- 哪里的山景最美丽?黄山归来不看岳
- 不得不去的经典园林:拙政园