想要推理能力比肩人类,AI先得换种学习方式


想要推理能力比肩人类,AI先得换种学习方式



不管是人类,还是动物,在学习大多数事物时,都是在自我监督的模式下进行的,而不是强化学习模式 。 这个模式本质上就是观察这个世界,然后不断与之互动,这种观察是自发的,而不是在测试条件下完成的 。
人类在漫长的进化中,获得了一种能通过感知、逻辑推理来与世界互动、认识世界的能力 。 当一个梨摆在我们面前时,我们能够通过嗅觉、视觉等,判断出它是梨而非苹果 。 当在路上行驶时,即使行人被部分遮挡住,我们也能从露出的部分体貌特征判断出这是一个人,从而进行避让 。
在人工智能领域,科学家们也一直试图让机器拥有像人一样的逻辑思维能力,帮助人完成更多工作 。
近日,在2020 ICLR大会上,图灵奖得主舒亚·本吉欧(Yoshua Bengio)和扬·勒昆(Yann LeCun)发表观点称,自监督学习有望使AI产生类人的推理能力 。 本吉欧相信机器最终可以习得关于这个世界的各种知识,这种知识的获得并不需要机器去亲身体验各种真实发生的事件,而是通过习得语言化的知识来实现 。
那么机器如何具备类人的推理能力?想具备类人的推理能力还要逾越哪些障碍?
“死记硬背”让机器难有逻辑能力
【想要推理能力比肩人类,AI先得换种学习方式】购物时,无需出示支付码,将面部特征绑定银行卡就能轻松消费;回家路上,查询手机地图,可以看出哪些地段拥堵;到饭点了,跟机器人对话叫外卖……这些基于机器学习的应用,正在让人工智能变得可观可感 。 但机器学习面临的挑战便是,需要大量数据的积累以及很强的算力 。
机器学习分为监督学习、无监督学习和强化学习 。 “监督学习需要对数据进行标签分类,数据需要涵盖所有可能的场景,此外,完成学习,机器还需要大量的算力 。 例如,如果希望创建图像分类模型,则必须为系统提供经过适当分类标记的大量图像,让模型在其中进行充分训练 。 有时数据量达到百万、千万级规模,需要几百万、上千万次的迭代 。 ”中国科学院自动化研究所研究员、视语科技创始人王金桥告诉科技日报采访人员 。
因此,减少对数据的依赖,一直是研究人员最重要的探索方向之一 。 在南京航空航天大学计算机学院教授陈松灿看来,监督学习往往需要大量的带有注释、标记的数据,而标记这些数据,需要人工完成,既耗时又昂贵 。
然而,即使是在有大量数据“打底”的监督学习环境中,一旦机器遇到不同于训练示例的全新状况,也面临着失控的风险 。
“例如无人驾驶汽车行驶在一条陌生的道路上,前方虽然出现了路杆,但如果此前系统没有遇到过这种道路模式,就会撞上去 。 进入摄像头视野的行人,如果未露出全貌,那系统就无法判断出这是一个人,也会撞上去 。 还有我们进入停车场时,有些停车杆不能及时抬起,是因为靠近停车杆的行驶角度超出了此前设定的范围 。 ”王金桥表示,虽然数据标签的质量,对于监督学习的效果非常重要,但监督学习不应局限于这种模式,应该提高对未知环境的探索和理解能力 。
自监督学习可利用规律举一反三
对于机器学习的未来,扬·勒昆和约舒亚·本吉欧有着相同的期待,他们认为,自监督学习会创造出更像人类的人工智能 。
正如勒昆所解释的,大多数人可以在30小时内学会驾驶汽车,因为他们已经凭借直觉构建了一个关于汽车行动方式的物理模型 。
“自监督学习是无监督学习中的一种,它可以通过揭示数据各部分之间的关系、内在结构,从数据中生成标签,这种标签便于对数据进行分类 。 自监督学习需要学习的样本量很少,但需要有基础知识的积累 。 ”王金桥说 。

推荐阅读