神经生物学家蒲慕明:脑科学将如何助力AI技术发展( 三 )


假如看到这个网络修饰的过程,产生的图数的数目,开始出生之后,是大量的上升的,上升之后要修剪,修剪是什么意思呢,就是学习,就是经验造成你大脑的结构 。 每个人的大脑都不一样,都有不一样的性格,想的不一样,记的事情不一样,因为在过去的一生你的经验不断修改你的大脑,围棋大师大脑跟我们普通人大脑不一样,因为他下了很多棋,已经对大脑经验进行了修改 。 我们常说人不需要大数据学习,一看到几个数据就知道怎么做决定了,因为他不需要这个大数据,他的大数据早已经在过去一辈子把他的网络修成了一个能够用小数据就把这个问题解决的 。 所以要一个真正有效的,未来人工网络必须要能够从网络形成的过程中来得到启发,来看我们怎么样用新的机器学习的算法 。
我最后讲一下,我们自然神经网络有什么可以学的,我今天稍稍讲了一些 。 其实神经元网络有不同的亚型和功能,这样造成了它的复杂性,这个复杂性不止是有网络连接 。 还有我们人工网络的连接,都是正向的,往前运作的 。 也有一些逆向的连接也可以在用 。 侧向的连接,逆向的连接,其实在自然网络里非常复杂,而且是关键,就是各种不同种类的神经元,它是可以往回头送信息,也可以往前面送信息 。 最重要的是可以借鉴神经图数的可塑性 。 现在图数我们知道在功能上可塑,现在这是机器学习的方法,它是跟所需要的信息看有没有错误,有错误就调整上游的图数,这个是调整以后它的功能增强、减弱 。 但是我们现在已经知道调的方法是通过图数的频率可以变,频率代表高低频,代表他的网络节点前后细胞电活动的相关性 。 但是我们现在知道有跟时序相关的调法 。 还有刚才讲到结构是可以改变的,这个是非常重要的 。
现在新生结构,连接可以新生,可以消减,它可以减少能耗,增加效率,这个已经被证实了,它已经被我们中心的程序员在芯片上实现了 。 还有可塑性可以有序的传播,还有逆向传播 。 还有网络图存,我们谈到效率和记忆的代表图存,假如消失了就是遗忘 。 什么信息需要遗忘,这也是需要解决的问题,什么样的信息需要长期保存,这个在人工智能方面也需要找到一个很好的算法 。 记忆提取的方式,还有强化学习的,在神经网络的内容是不一样 。 我今天讲了一个很重要的集群的概念,就是赫伯集群,这是嵌套式的,一群一群神经元代表不同的信息,然后捆绑在一起 。 捆绑的方式就是用同步的活动在大脑了有电活动捆绑集群 。 最后还有输入的图谱结构等等 。
今天讲到这里,就是脑科学,和类脑智能有很多可以交换的地方,不光是脑科学为智能领域有影响,智能语义对脑科学的发展也有影响,这个细节我今天没有时间说了 。 所以我就讲到这里,谢谢大家 。 (完)

推荐阅读