大脑:AI人工智能又一新突破,可快速把大脑意念转换成语言且正确率99%


我们每一个人都曾想过 , 什么时候我们人类能用“意念”控制事物为我所用 , 脑子里想啥 , 就有机器理解别识别我的命令去执行 。 我们的想象犹如神笔马良一样神奇 , 有一天AI机器真的能读懂我们思想?
事实如此 。 科学家利用人工智能开发了一种系统 , 可以将大脑活动转化为文本 , 这项突破给聋哑人带来了福音 , 给互联网带来了革新 , 又一次互联网革命即将到来 。 目前 , 它已经可以在有人大声说话时的神经模式上起作用 , 但研究人员也正在研究可以用于无法讲话或打字的聋哑患者 。 相信未来是美好的 , 我们离大脑“意念”被识别已经不会太久 。

大脑:AI人工智能又一新突破,可快速把大脑意念转换成语言且正确率99%
本文插图
【大脑:AI人工智能又一新突破,可快速把大脑意念转换成语言且正确率99%】

意念机器人
AI智能识别的发展和现状!
目前 , 我们互联网公司掌握高准确率的语音识别技术 , 最高可达到99%的正确识别率 。 语音识别技术 , 也被称为自动语音识别(Automatic Speech Recognition , ASR)技术 , 就是让机器通过一定技术的识别和理解过程把语音信号转变为相应的文本或命令的AI智能技术 , 也就是让带音频的机器听懂人类的语音并输出我们需要的结果 。

大脑:AI人工智能又一新突破,可快速把大脑意念转换成语言且正确率99%
本文插图

大数据人工智能
语音识别主要有两部分技术实现:
一、训练(Training):预先分析出语音特征参数 , 制作语音模型并存放在语音参数库中 , 整理出共性 。
二、识别(Recognition):把未识别的语音经过与训练时相同的语音分析 , 得到语音标准参数 , 将它与参数库中的模型一一比较并加入常用词语库 , 然后采用自动匹配的方法找出最接近这个语音特征的模型得出语音识别效果 。
其实语音识别要从1952年的研究开始算起 , 当时AT& T Bell实验室实现了识别一个单一发音人发音的十个英文数字的语音识别雏形 , 方法主要是度量每个数字的元音音段的共振峰 。 70年代、80年代开始用神经网络技术引入语音识别 。 直到2000年以后 , 人机语音交互成为研究的焦点 , 技术开始提升到即兴口语的识别和理解 , 自然口语对话 , 以及多语种的语音同声翻译 。 很多国家级会议就需要用到同声翻译系统 , 不然很多主持来自不同国家 , 语言也不懂 , 在座的人怎么能听懂 。
AI智能识别“意念”为文本是意外发现 。
加利福尼亚大学旧金山分校参与这项研究的约瑟夫·马金和他的同事招募了四名参与者 , 他们在参与者的大脑中植入了电极阵列本来用于监测癫痫发作 。 马金等人要求参与者多次朗读50个固定句子 , 包括“蒂娜·特纳是流行歌手”和“那些小偷偷走了30件珠宝”等常用语句 , 在他们讲话时科学家也在跟踪朗读者的神经活动 。 然后将所有这些数据输入到机器学习算法中 , 这是一种人工智能程序 , 可以将每个口述句子的大脑活动数据转换为一串数字 。

大脑:AI人工智能又一新突破,可快速把大脑意念转换成语言且正确率99%
本文插图

语言识别过程
该算法刚开始只生成一些无意义的句子 。 但是 , 通过将每个单词序列与实际朗读的句子进行比较 , 结果逐渐得到改善 。 接下来 , 研究人员对该系统进行了测试 , 仅从语音过程中的大脑活动生成书面文本 。 刚开始每次识别转换过程都不尽人意 , 有着不同的准确率 。 后来 , 科学家改进了识别模型 , 每个参与者平均一句话仅需要人工去纠正3% , 也就是达到了识别准确率97% 。
这项研究令所有人兴奋了一宿 , 因为该系统为每个参与者使用了不到40分钟的训练数据和少量的句子 , 而不是通常需要数百万小时就可以达到高准确率 。 这项语言识别模型达到了迄今为止尚未达到的最高识别水平 。


推荐阅读