深度学习和机器学习,机器学习和深度学习的( 五 )


神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量” 。这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等 。然后网络结构告知神经网络,它的结论是否正确 。此前,这样的神经网络并没得到为人工智能圈的认可 。然而,事实上在人工智能出现的早期,神经网络就已经存在了,只是神经网络对于“智能”的贡献微乎其微 。
其主要原因是因为即使是最基本的神经网络,也需要大量的运算 。神经网络算法的运算需求难以得到满足 。不过,还是有一些虔诚的研究团队(例如:多伦多大学的Geoffrey Hinton)坚持研究,实现了以超算为目标的并行算法的运行与概念证明 。但也直到GPU得到广泛应用,这些努力才见到成效 。我们回过头来看这个停止标志识别的例子 。
神经网络是调制、训练出来的,时不时还是很容易出错的 。它最需要的,就是训练 。需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否是雾天、晴天还是雨天,每次都能得到正确的结果 。只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络学习了如何识别你妈妈的脸;又或者是2012年吴恩达(Andrew Ng)教授在Google实现了神经网络学习到猫的样子等等 。
吴恩达教授的突破在于,把这些神经网络从基础上显著地增大了 。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络 。在他的示例中,数据是一千万YouTube视频中的图像 。吴教授为深度学习(deep learning)加入了“深度”(deep) 。这里的“深度”所指的,正是神经网络中众多的层 。现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,再到识别核磁共振成像中的肿瘤 。
Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练 。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇 。深度学习,给人工智能以璀璨的未来深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围 。如今,深度学习已经能够实现各种任务,几乎使得所有的机器辅助功能都变为可能 。
机器学习、深度学习和强化学习的关系和区别是什么?
给亲分享下人工智能、机器学习和深度学习、强化学习的区别与联系 。2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源 。这两年在不管在国内还是在国外,人工智能、机器学习仿佛一夜之前传遍大街小巷 。机器学习作为人工智能的一种类型,可以让软件根据大量的数据来对未来的情况进行阐述或预判 。
如今,领先的科技巨头无不在机器学习下予以极大投入 。Facebook、苹果、微软,甚至国内的百度,Google 自然也在其中 。去年早些时候 Google DeepMind 的 AlphaGo 项目在举世瞩目的围棋比赛中一举击败了韩国选手李世石,媒体就是使用了人工智能、机器学习和深度学习这几个术语,来解释 DeepMind 获胜的原因,并将它们混为一谈 。
但是三者其实不是一回事 。区别与联系本文借助Michael Copeland的讲解,让我们撩开人工智能、机器学习和深度学习的概念,深入理解它们的关系和区别 。为了搞清三者关系,我们来看一张图:如图所示:人工智能最大,此概念也最先问世;然后是机器学习,出现的稍晚;最后才是深度学习 。从低潮到繁荣自从 1956 年计算机科学家们在达特茅斯会议(Dartmouth Conferences)上确认人工智能这个术语以来,人们就不乏关于人工智能奇思妙想,研究人员也在不遗余力地研究 。

推荐阅读