类脑计算机|中国科学家成功研制全球神经元规模最大的类脑计算机( 二 )


类脑计算机|中国科学家成功研制全球神经元规模最大的类脑计算机
本文插图

类脑计算机应用演示:嗅觉识别
潘纲介绍说 , 用硬件及软件模拟大脑神经网络的结构与运行机制 , 构造一种全新的人工智能系统 , 这种颠覆传统计算架构的新型计算模式 , 就是类脑计算 。 其特点在于存算一体、事件驱动、高度并行等 , 是国际学术界与工业界的研究焦点 , 更是重要的科技战略 , “类脑计算已被看作是解决人工智能等计算难题的重要路径之一 。 ”
近年来 , 浙江大学聚焦人类智能与机器智能等核心领域 , 实施了简称为“双脑计划”的脑科学与人工智能会聚研究计划 , 希望借鉴脑的结构模型和功能机制 , 将脑科学的前沿成果应用到人工智能等研究领域 , 建立引领未来的新型计算机体系结构 。
2015年和2019年浙江大学分别研制成功达尔文1代和达尔文2代类脑计算芯片 , 用芯片去模拟大脑神经网络的结构与功能机制 , 在图像、视频、自然语言的模糊处理中具有优势 。 而这次的成果是将792颗我国自主产权的达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中 , 形成了一台强大的机架式类脑计算机 。
那么 , 这种高效能低功耗是如何实现的呢?项目研究骨干马德副教授说 , 大脑神经元的工作机理是钾离子钠离子的流入流出导致细胞膜电压变化 , 从而传递信息 , “可以简单理解为 , 一个神经元接受输入脉冲 , 导致细胞体的膜电压升高 , 当膜电压达到特定阈值时 , 会发出一个输出脉冲到轴突 , 并通过突触传递到后续神经元从而改变其膜电压 , 实现信息的传递 。 ”
这里很重要的一点是异步运行 , 也就是信号来的时候启动 , 没有信号就不运行 。 类脑芯片的工作原理就类似于生物的神经元行为 , 通过脉冲传递信号 , 这样就能实现高度并行 , 效率提升 。
类脑计算机|中国科学家成功研制全球神经元规模最大的类脑计算机
本文插图

脑机交互演示
真正像脑一样“思考”
有了硬件 , 还得有软件 。
项目研究骨干金孝飞介绍 , 每颗芯片上有15万个神经元 , 每4颗芯片做成一块板子 , 若干块板子再连接起来成为一个模块 。 这台类脑计算机就是这样像搭积木一样搭起来 。
说起来容易 , 可要让这么多神经元能够互联并且可拓展从而实现高效的联动组合 , 同时要把杂乱无章的信息流有序分配到对应的功能脑区 , 可不那么简单 。
为此 , 科研人员专门研发了一个面向类脑计算机的类脑操作系统——DarwinOS 。
这款达尔文类脑操作系统面向冯·诺依曼架构与神经拟态架构的混合计算架构 , 实现了对异构计算资源的统一调度和管理 , 为大规模脉冲神经网络计算任务提供运行和服务平台 。 项目研究骨干吕攀介绍说:“目前达尔文类脑操作系统的功能任务切换时间达微秒级 , 可支持亿级类脑硬件资源管理 。 ”
由此 , 类脑计算机研究的价值真正得以实现——既可以应用于生活中的智能任务处理 , 也可以应用于神经科学研究 , 为神经科学家提供更快更大规模的仿真工具 , 提供探索大脑工作机理的新实验手段 。
类脑计算机|中国科学家成功研制全球神经元规模最大的类脑计算机
本文插图

类脑计算机应用演示:意念打字
目前 , 浙江大学与之江实验室的科研人员基于Darwin Mouse类脑计算机已经实现了多种智能任务 。 研究者将类脑计算机作为智能中枢 , 实现抗洪抢险场景下多个机器人的协同工作 , 涉及到语音识别、目标检测、路径规划等多项智能任务的同时处理 , 以及机器人间的协同 。 同时 , 还用类脑计算机模拟了多个不同脑区 , 建立了丘脑外侧膝状核的神经网络模型 , 仿真了不同频率闪动的视觉刺激时该脑区神经元的周期性反应;借鉴海马体神经环路结构和神经机制构建了学习-记忆融合模型 , 实现音乐、诗词、谜语等的时序记忆功能;实现了脑电信号的稳态视觉诱发电位实时解码 , 可“意念”打字输入 。


推荐阅读