
近年来 , 随着人工智能技术的快速发展 , 公众的担忧有所上升 。 最响亮的声音之一来自于已故的斯蒂芬·霍金教授 , 他认为人工智能可能会毁灭人类 。 那么 , 该如何看待人工智能的威胁?应该采取行动控制人工智能吗?是否要像对待核能和其他潜在危险的技术一样 , 制定法律甚至是国际条约来控制人工智能的发展?
回答这些问题之前 , 首先需要明确的是 , 人工智能的成就目前仍很有限 。 现在的人工智能系统能够执行20年前计算机不可能完成的任务 。 比如 , 现在全世界每天都有数以百万计的人在使用文本自动翻译工具;无人驾驶汽车即将问世 , 未来10年将出现在马路上;计算机现在比人更善于识别人脸等 。 尽管这些成就令人印象深刻 , 但人们还是不知道应该如何使机器具有意识和自我感知 。 因此 , 在可预见的未来 , 人工智能接管世界仍将是科幻小说的情节 。 当然这并不意味着我们可以高枕无忧 。
人工智能系统越来越多地被用于做出决策 , 这对人们产生了直接影响 。 例如 , 银行发现人工智能系统善于预测潜在客户是否会成为优质客户——是否会按时还债等 。 他们可以通过使用大量的客户记录 , 来“培训”一个人工智能系统 。 一段时间后 , 这一系统将能够分析潜在客户的详细信息 , 从而预测其是否优质 。 对于银行来说 , 可以迅速而低廉地决定是否需要一个特定的客户 。 但对于客户自身而言 , 应该会感到担忧:如果银行的人工智能系统在某种程度上存在偏见怎么办?
这就是算法偏见 。 当前人工智能浪潮的一个特点是 , 系统无法像人那样 , 解释或合理化其所做的决定 。 所以 , 银行可能会使用人工智能系统来决定不与你做生意 , 但却不能给你解释原因 。 这公平吗?银行这样运作合乎道德吗?谁来对这个决定负责?
这些问题不容忽视 。 一种解决办法是 , 建议对人工智能技术的使用进行监管 。 我认为通过一般法律来管理人工智能的使用是不现实的 , 这似乎有点像试图通过立法来管理数学的使用 。 一个似乎正在被接受的办法是 , 如果软件做出了影响你的决定 , 那么你应该有权知道这个决定是如何做出的 , 使用了哪些和你有关的数据 , 标准是什么 。 我认为这比较合理 。 使人工智能可解释化和透明化 , 是当今这一领域面临的最大挑战之一 。
在某些情况下 , 人工智能决策可能直接事关生死 , 比如在战场上使用人工智能系统 。 尽管目前还没有证据表明这种“致命性自主武器”已经被使用 , 但确实已经具备了可能性 。 过去5年来 , 人工智能领域的科学家们积极行动 , 希望政府认识到这一问题的严重性并做出应对 。 最近英国政府在一份报告中明确表示 , 永远不给人工智能系统伤害人的权力 。
人工智能只是一种技术 , 就像任何技术一样 , 可以用来造福人类 , 也可能带来危害 。 条件反射式的立法 , 对于把控人工智能不太可能奏效 。 我们需要以负责和道德的方式使用人工智能 , 正如最近全球关于自主武器的讨论取得进展一样 , 国际社会需要应对解决人工智能带来的挑战 。
【牛津大学教授:人工智能如何把控?】(作者为英国牛津大学计算机系主任)
《 人民日报 》( 2018年05月15日 22 版)
推荐阅读
- 办公室的秘密被同事发现
- 形容唱歌好听 唱歌好听怎么形容
- 大学生征兵时间
- “大学”和“学院”有哪些区别? 大学与学院的区别
- 格力大学生走的人多吗 格力大学生待遇怎么样
- 女明星「戴眼镜」竟有大学问,女人们都瞎戴多少年了啊
- 大学生捅死妈妈,极端事件警示亲子关系这样处理
- 心理学校 郑州所有大学一览表
- 丁羡第几集上大学
- 湖南省实力雄厚的二本大学 湖南有哪些二本大学