钱江晚报·小时新闻|浙大联合之江实验室研制,亿级神经元类脑计算机来了,可以“像脑一样思考”

钱江晚报·小时新闻 采访人员 王湛 通讯员 柯溢能 吴雅兰
1.6米高的三个标准机柜并排而立 , 黑色的外壳给人酷酷的感觉 , 红色的信号灯不停地闪烁 , 靠得近些似乎能听到里面脉冲信号飞速奔跑的声音 。
浙江大学联合之江实验室宣布 , 共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse) 。 今天在杭州举行了新闻发布会 。
这台类脑计算机包含792颗浙江大学研制的达尔文2代类脑芯片 , 支持1.2亿脉冲神经元、近千亿神经突触 , 与小鼠大脑神经元数量规模相当 , 典型运行功耗只需要350-500瓦 , 同时它也是目前国际上神经元规模最大的类脑计算机 。
与此同时 , 团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统(DarwinOS) , 实现对类脑计算机硬件资源的有效管理与调度 , 支撑类脑计算机的运行与应用 。
颠覆传统的新型计算模式
对于如今在工作生活各个领域中早已司空见惯的计算机 , 或许大家已经忘了最初科学家是想通过机器模拟出一个人类大脑 。
然而计算机的发展 , 在当时选择了以数值计算见长的冯·诺依曼架构 , 也就是以数字加减乘除的方式来进行信息架构 。 随着摩尔定理逐渐失效 , 冯·诺依曼架构带来的局限日益明显 , 存储墙、功耗墙、智能提升等问题 , 让当前计算机发展面临重大挑战 。
比如 , 存储墙问题是由于现有的冯·诺依曼架构中数据储存和计算的分离产生的 。
“这就好比信息存储在甲地 , 要计算的时候就把信息搬到乙地去 , 计算好了再搬回甲地去 。 但搬运的速度要远远低于计算的速度 , 反而让搬运本身成为关键瓶颈 。 ”研究团队负责人、浙江大学计算机科学与技术学院教授潘纲说 , 这种计算模式制约了以大数据为代表的计算性能提升 。 而由此带来的数据“跑动” , 以及人工智能等高耗能计算又让功耗墙问题冒了出来 。 同时 , 数据驱动的智能算法、训练需要海量样本与密集计算 , 但举一反三、自我学习等高级能力比较差 , “现在的机器智能离人的智能差得还很远 。 ”
如何突破现有计算运行方式导致的计算机瓶颈?
全球科学家们再次将目光瞄准到模仿生物大脑这个最初的梦想 , 通过模拟人脑结构与运算机制来发展新的计算技术 , 以期实现高能效与高智能水平的计算 。
生物大脑在与环境相互作用过程中能够自然产生不同的智能行为 , 包括语音理解、视觉识别、决策任务、操作控制等 , 而且消耗的能量非常低 。 自然界中 , 很多神经元远低于100万的昆虫就能做到实时目标跟踪、路径规划、导航和障碍物躲避 。
潘纲介绍说 , 用硬件及软件模拟大脑神经网络的结构与运行机制 , 构造一种全新的人工智能系统 , 这种颠覆传统计算架构的新型计算模式 , 就是类脑计算 。 其特点在于存算一体、事件驱动、高度并行等 , 是国际学术界与工业界的研究焦点 , 更是重要的科技战略 , “类脑计算已被看作是解决人工智能等计算难题的重要路径之一 。 ”
近年来 , 浙江大学聚焦人类智能与机器智能等核心领域 , 实施了简称为“双脑计划”的脑科学与人工智能会聚研究计划 , 希望借鉴脑的结构模型和功能机制 , 将脑科学的前沿成果应用到人工智能等研究领域 , 建立引领未来的新型计算机体系结构 。
2015年和2019年浙江大学分别研制成功达尔文1代和达尔文2代类脑计算芯片 , 用芯片去模拟大脑神经网络的结构与功能机制 , 在图像、视频、自然语言的模糊处理中具有优势 。 而这次的成果是将792颗我国自主产权的达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中 , 形成了一台强大的机架式类脑计算机 。
那么 , 这种高效能低功耗是如何实现的呢?项目研究骨干马德副教授说 , 大脑神经元的工作机理是钾离子钠离子的流入流出导致细胞膜电压变化 , 从而传递信息 。 “可以简单理解为 , 一个神经元接受输入脉冲 , 导致细胞体的膜电压升高 , 当膜电压达到特定阈值时 , 会发出一个输出脉冲到轴突 , 并通过突触传递到后续神经元从而改变其膜电压 , 实现信息的传递 。 ”


推荐阅读