神经网络专家:人工智能不再有冬天


神经网络专家:人工智能不再有冬天



 据国外媒体报道 , 日前《连线》在G7峰会首次人工智能会议上采访了谷歌高管杰夫 辛顿(Geoff Hinton) , 谈及人工智能技术面临的道德挑战、信任度以及如何开发更有效人工智能等诸多问题 。 辛顿强调 , 人工智能已经走进我们的生活 , 不会再有冬天 。
上世纪70年代初英国研究生杰夫?辛顿(Geoff Hinton)开始建立简单的数学模型 , 来描述人脑神经元如何通过视觉理解世界 。 几十年来 , 人们一直认为人工神经网络是一项不切实际的技术 。 但在2012年 , 辛顿和多伦多大学的两名研究生利用人工神经网络有效提升了计算机识别照片中物体的准确度 。 六个月内 , 谷歌收购了由这三位研究人员创立的一家初创公司 。 鲜为人知的人工神经网络开始成为硅谷的热门话题 。 现在 , 所有的大型科技公司都把辛顿和其他初创公司煞费苦心开发的技术作为公司发展的未来技术 , 以及推动社会发展的核心技术 。
上周 , 在G7峰会首次人工智能会议上 , 《连线》杂志采访了辛顿 。 来自世界主要发达经济体的代表们在会上讨论了如何推广人工智能的有益之处 , 同时尽量减少失业和算法歧视等不利因素 。 以下是经过编辑的采访记录:
《连线》:加拿大总理贾斯汀·特鲁多(Justin Trudeau)在七国集团会议上表示 , 应对人工智能带来的道德挑战还需要更多的工作 。 您怎么看?
杰夫?辛顿:我一直担心致命的自动武器可能被滥用 。 我认为应该像日内瓦公约禁止使用化学武器一样禁止它们 。 即便不是每个人都在上面签名 , 其存在也会起到某种道德标杆的作用 。 你会注意到谁没有签名 。
《连线》:你在谷歌的4500多名同事联名致信 , 抗议谷歌与五角大楼续签一份涉及将机器学习应用于无人机图像的合同 。 谷歌曾表示这并非用于攻击性目的 。 你在信上签名了吗?
杰夫?辛顿:作为谷歌的高管 , 我不认为我应该公开投诉 , 但是我私下抱怨了这一点 。 我没有在这封信上签名 , 但和谷歌联合创始人谢尔盖?布林(Sergey Brin)谈过 。 他说他也有点不高兴 。 所以他们没有续签 。
《连线》:谷歌的领导层决定完成但不再续签合同 。 他们还发布了一些使用人工智能的指导方针 , 其中包括承诺不将该技术用于武器 。
杰夫?辛顿:我认为谷歌决定是正确的 。 会有各种各样的东西需要云计算 , 很难知道在哪里画一条底线 , 从某种意义上说这是随意的 。 我很高兴谷歌画出了这条线 。 这些原则对我很有意义 。
《连线》:人工智能在日常生活中也会引发伦理问题 。 比如说相关软件被用于社会服务或卫生保健的决策 。 我们应该注意什么?
杰夫?辛顿:我是技术应用方面的专家 , 而不是社会政策方面的专家 。 我确实拥有相关技术专长的一个地方是监管机构是否要求解释人工智能系统是如何工作的 。 我认为那将是一场彻头彻尾的灾难 。
对于人类来说 , 他们无法解释自己所做的大部分事情 。 比如说当你雇佣一个人的时候 , 这个决定是基于各种各样你可以量化的东西 , 然后是各种各样的直觉 。 人们不知道他们是怎么做到的 。 如果你让他们解释他们的决定 , 你是在强迫他们编造故事 。
【神经网络专家:人工智能不再有冬天】神经网络也存在类似的问题 。 当你训练一个神经网络时 , 它会学习十亿的巨量数据 , 从而提取出知识 。 如果你输入一个图像 , 输出的是正确的决定 , 比如说 , 这是不是一个行人 。 但如果你问“它为什么这么想?”如果有任何简单的规则能决定一幅图像是否包含行人 , 这种难题在很久以前就已经解决了 。

推荐阅读