##神经拟态芯片取得重大突破,对AI有何意义?

这一周英特尔放出两个重磅消息:其一是3月16日英特尔与康奈尔大学利用英特尔神经拟态芯片Loihi来识别爆炸物等危险化学品气味方面的研究 , 取得重大的突破 。其二是3月19日英特尔用768个Loihi芯片构造了一个新的神经拟态研究系统Pohoiki Springs , 这个系统达到了1亿个神经元的规模 , 而上一次构建的系统Pohoiki Beach是64个芯片800万个神经元 , 这次扩大了12倍 。
##神经拟态芯片取得重大突破,对AI有何意义?
文章图片

文章图片

在这两个重磅消息的背后释放出许多重要的信号 , 人类对于除视觉、听觉之外的味觉嗅觉等研究有新突破 , 带来新想象空间和应用空间 , 人类对大脑的认知以及类脑芯片、AI芯片又跨上新台阶 , 未来的芯片发展之路又有可能另辟蹊径 。这一切、一切的背后有诸多信息需要解密 , 3月20日 , 《中国电子报》采访人员连线采访英特尔中国研究院院长宋继强 。
嗅觉和味觉AI为什么远比视觉和听觉AI要落后?
我们知道人类在视觉、听觉识别方面相对成熟 , 但在味觉、嗅觉等方面识别仍面临很多挑战 。而这次在英特尔与康奈尔合作在气味和爆炸物识别的突破有什么突破意义?关于味觉、嗅觉识别的主要的挑战是什么?通常采用什么样的路径来解决这类问题?
宋继强表示 , 人类的味觉靠舌头、嗅觉靠鼻子 , 目前为止 , 人工智能做得比较好的是视觉、听觉 , 这两个人类主要感官 。之所以在两个领域做的比较好 , 有几个原因 , 其一是视觉、听觉两类数据相对容易获得而且数据量大 。在此前的信息化时代 , 比如2000年开始摄像头普及 , 更早时候麦克风普及 , 让我们积累了大量图片数据、语音数据 。其二是这两类数据的标注相对容易 。人类基于捕捉下来的照片或是录制的音频进行标注 , 基于人类的基本认知知识容易实现 , 容易确定它的正确与否 。
##神经拟态芯片取得重大突破,对AI有何意义?
文章图片

文章图片

“而深度学习之所以能够获得现在的效果是因为几个关键:第一数据量足够 , 第二有标注好的数据 , 第三是要保证训练的数据集和未来要处理的问题的测试数据集的分布是一致的 , 这样训练出来的模型 , 才能够很好地处理真实的场景 。”宋继强表示 , 这也是为什么我们看到深度神经网络擅长处理视觉数据、语音数据的原因 。
而嗅觉和味觉 , 目前的数据非常少 , 而且没有很好地标注 。究竟谁可以将这些数据进行标注非得是专家在实验室才可以进行 。比如葡萄酒的品酒 , 同一个葡萄酒十个专家来品尝可能会有不同的结果 , 同一个葡萄酒让同一个专家在不同的时间段品 , 也可能打出不同的分 。所以它有难度 。
“数据量不够多 , 而且主观评测标准也不够 , 味觉的差异性太大 。嗅觉相对客观一些 , 因为嗅觉本身是依据不同的气味 , 主要源于空气中包含的一些化学分子成份不同、密度不同 。人的鼻子、动物的鼻子、电子鼻对于气味的区分能力不一样 。普通人能够区分三四百种不同气味 , 稍加训练可以达到上千种、数千种 , 但现实中真正可以区分的气味其实是在万种以上 , 这些数据我们日常很难拿到大量数据 , 所以它绝对是小数据量的场景 。”宋继强说 。
但嗅觉数据的使用场合非常多 , 比如爆炸品的检测 , 比如生活中危害、有害气体的提早检测 , 比如对水果或农作物的成熟度检测 , 比如对检修污染的检测等 , 靠气味能够检测的非常多 。目前因受限于数据量不够充分 , 检测手段不够高明 , 嗅觉AI的发展比视觉和听觉落后非常多 。
为什么用神经拟态计算而不是其他计算?
我们知道人工智能发展有三个关键:数据、算法、算力 , 为什么解决嗅觉、味觉等问题上要采用类脑计算 , 而不是其他的计算来解决这些问题?神经拟态计算比其他计算解决此类问题有什么优点?用量子计算是不是也可以很好地解决此类问题?


推荐阅读