神经元规模最大类脑计算机问世


神经元规模最大类脑计算机问世



接收到语音指令后 , 经过训练的3台机器人分别担任了巡逻、救援、工程检修“特种兵” , 模拟合作开展抗洪救险任务 。 在类脑计算机的控制下 , 机器人可根据指令切换兵种……在之江实验室 , 研究人员进行了亿级神经元类脑计算机的应用演示 。
9月1日 , 浙江大学联合之江实验室共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机 , 其包含792颗浙江大学研制的达尔文2代类脑芯片 , 支持1.2亿个脉冲神经元、720亿个神经突触 , 与小鼠大脑神经元数量规模相当 , 典型运行功耗只需350—500瓦 , 是目前国际上神经元规模最大的类脑计算机 。
延续“最初的梦想” 新型计算模式颠覆传统
如今计算机应用普遍 , 但很少有人知道 , 科学家们最初是想通过机器模拟出一个人类大脑 。
亿级神经元类脑计算机研究团队负责人、浙江大学计算机科学与技术学院教授潘纲说 , 早期计算机的发展选择了以数值计算见长的冯·诺依曼架构 。 然而由于冯·诺依曼架构中数据储存和计算的分离 , 产生了存储墙问题 。 “这就好比信息存储在甲地 , 要计算的时候就把信息搬到乙地去 , 计算好了再搬回甲地去 。 但搬运的速度要远远低于计算的速度 , 反而让搬运本身成为关键瓶颈 。 ”
潘纲直言 , 这种计算模式制约了以大数据为代表的计算性能提升 。 同时 , 数据驱动的智能算法、训练需要海量样本与密集计算 , 但举一反三、自我学习等高级能力比较差 , “现在的机器智能离人的智能差得还很远” 。
与传统计算机不同的是 , 生物大脑在与环境相互作用过程中能够自然产生不同的智能行为 , 包括语音理解、视觉识别、决策任务、操作控制等 , 且能耗低 。 自然界中 , 很多神经元远低于100万的昆虫就能做到实时目标跟踪、路径规划、导航和障碍物躲避 。
“和计算机相比 , 人脑功耗相当于一个节能灯 。 类脑计算即采用硬件及软件模拟大脑神经网络的结构与运行机制 , 构造一种全新的人工智能系统 。 ”项目研究骨干马德副教授说 , 类脑芯片的工作原理就类似于生物的神经元行为 , 通过脉冲传递信号 , 这样就能实现高度并行 , 效率提升 。
每颗芯片上有15万个神经元 , 每4颗芯片做成一块板子 , 若干块板子再连接起来成为一个模块……为让这么多神经元实现高效的联动组合 , 同时将杂乱无章的信息流有序分配到对应的功能脑区 , 研究团队研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统(DarwinOS) , 实现了功能任务切换时间微秒级 , 对类脑计算机硬件资源的有效管理与调度 , 支撑类脑计算机的运行与应用 。
像“脑”一样思考 提供探索神经科学的新工具
借鉴海马体神经环路结构和神经机制 , 构建学习—记忆融合模型 , 实现音乐、诗词、谜语等的时序记忆功能;模拟不同脑区建立神经模型 , 为科学研究提供更快更大规模的仿真工具;实现“意念打字” , 对脑电信号进行实时解码……目前 , 这个亿级神经元类脑计算机已经实现了多种智能任务 。
潘纲指着3台1.6米高、并排而立的标准服务器机箱告诉采访人员 , 别看现在这个亿级神经元类脑计算机是个“大块头” , 随着达尔文芯片及其他硬件的不断迭代升级 , 未来类脑计算机体积还将缩小 。 “与硬件上的更新相比 , 如何让类脑计算机更聪明是我们下一步研究重点 。 ”
比如 , 由于目前市面上的传感器输入的信号还是以数字为主 , 在应用到Darwin Mouse类脑计算机上 , 要加一个编码层 , 将信号转换为脉冲式的 , 而在这个过程中 , 信息有丢失和损伤 , 会在一定程度上降低计算机的功效 。 这一问题有待科研人员尽快解决 。

推荐阅读