想要推理能力比肩人类,AI先得换种学习方式( 二 )


王金桥进一步解释,例如下围棋,如果机器可以将顶尖高手的棋路都学会,就能举一反三 。 又例如,假设世界上有5000种苹果的类型,植物学家又培育出一种新苹果,与其他苹果长得很像,那么自监督学习就可以通过数据的分析,识别出这是苹果,但又能认识到它是不同于以往的苹果类型 。 也就是说,通过自监督学习,机器不需要训练,就可以通过自动分析内部数据的结构关系,并且应用分析数据得到的规律,对各种新情况作出判断 。 这种能力类似于人,在婴幼儿时期,人类能用嗅觉、触觉、视觉等感知世界,进入学校学习后,能将万事万物的物理特征,与知识结合起来,慢慢形成推理能力 。
王金桥认为,这有点类似于勒昆说的,自监督学习无需创建大量带有标签的数据集,例如用大量猫和狗的图片,让机器认识猫和狗的不同;也不用花费数千个小时训练“Alpha Zero”这样的国际象棋游戏机器人,而是只需获取一些丰富的原始数据,例如视频,然后“喂”给计算机,训练机器预测视频中即将出现的画面 。
“不管是人类,还是动物,在学习大多数事物时,都是在自我监督的模式下进行的,而不是强化学习模式 。 这个模式本质上就是观察这个世界,然后不断与之增进互动,这种观察是自发的,而不是在测试条件下完成的 。 ”勒昆在2020 ICLR大会上表示 。
达到类人水平还需算法理论突破
在几位专家看来,目前想通过自监督学习实现机器的类人逻辑能力,还前路漫漫 。
陈松灿认为,自监督学习需要解决数据的不确定性问题,即积累的数据与要完成的任务的匹配性问题 。 “例如,利用自监督学习训练的自动驾驶系统,可以通过机载的测速仪、方向仪,学习安全行驶的方向和速度信息 。 但以现在的技术水平来说,如果行人横穿马路,而此前标记的信息与行人横穿马路不搭界,那自动驾驶系统就会无法做出判断,发出指令 。 ”
王金桥表示:“从监督学习到自监督学习,就像先让机器知道什么是1234,才能算加减乘除一样 。 目前的自监督学习还非常初级,仅有一些小的、封闭的数据集 。 ”
他说,目前制约自监督学习的因素涉及大数据积累、小样本监督,以及自主进化、认知未知数据的能力 。 “在数据积累阶段,还需要把数据做得更规范,搭建的深度学习网络要有能支持自监督学习的能力,能让机器自己生成标签 。 在样本监督学习阶段,要解决样本不均衡的问题,例如要让机器学会分辨猫和狗,那么猫和狗的案例数量要匹配,同时要去除数据噪音,不要把干扰图像混入 。 ”
“关键是要让自监督学习产生认知的能力,而不只是代替人类的视觉、听觉、触觉,要从感知智能过渡到认知智能,让机器建立自己的知识图谱,能与人的思辨能力和知识图谱对接,能进行知识表述和高阶推理 。 ”王金桥说 。
但目前所有的不完美,并不影响两位图灵奖得主的信心 。 本吉欧认为,相比于动物,人类之所以聪明,是因为我们有自己的文化,让我们能够解决这个世界的问题 。 要想让人工智能在现实世界中发挥作用,我们需要它不仅仅是有翻译功能,更需要它能够真正理解自然语言 。
而在勒昆看来,如果说人工智能是一块蛋糕,那么自监督学习就是其中最大的一块 。

推荐阅读