新的AI系统将人脑信号转换为文本的准确性高达97%

畅游科学海洋,共寻宇宙之妙,大家好,我是南城~

直到现在,大家都还在适应亚马逊和谷歌等公司制造的虚拟助手的功能和先进性。但是,与短短几年前的那些技术所能提供的功能相比,现在的通过脑电波高精度识别文字的功能就真的是令人毛骨悚然了~

这真的不是科幻小说。从动物模型测试到人类参与者测试,脑机接口在过去的几十年中得到了长足的发展,实际上人类已经在尝试这种事情。但一直以来都存在一个问题——识别精度不够。

为了改善这一状况,由加州大学旧金山分校张氏实验室的神经外科医生爱德华·张领导的研究小组使用了一种新的方法来解码皮层电图:皮层活动期间发生的电脉冲的记录由植入大脑的电极采集。

在这项研究中,四名癫痫患者戴上了植入物以监测由他们的医疗状况引起的癫痫发作,在此过程中,UCSF团队进行了一项辅助实验:让参与者朗读并重复一些固定的句子,而电极记录他们的大脑活动在运动中。

然后,将这些数据输入到神经网络中,该神经网络会根据实验的音频记录,分析与某些语音签名(例如元音,辅音或嘴巴动作)相对应的大脑活动模式。

此后,另一个神经网络对这些活动进行解码(从重复的30–50个口头句子收集而来),并仅根据单词的皮层活动来翻译实验对象所说的内容。

在最好的情况下,该系统产生了的误码率(WER)仅有3%,也就是几乎能准确的将参与者的脑信号转换为文本——至少与现今的一些AI识别的效果差不多(不过AI转换的是语音之类的信号),所以事实证明,这项技术已经能初步读懂的人的思想。

在他们的论文中,团队详细介绍了参与者所说的参考句子的许多示例,以及神经网络生成的“翻译结果”,不过有时也是错误的,而且有时候错误很明显,甚至与实际上要表达的内容大相径庭(这可能是引入的数据集有限导致的)。

错误的例子包括:实验参与者的原意是:“博物馆每天晚上都会聘请音乐家”,但翻译结果是:“博物馆每天早上都会聘请音乐家”;还有“蛋糕的一部分被狗吃掉了”被翻译为“蛋糕的一部分是饼干”等等。

在最不准确的情况下,这些错误甚至上在语义上与所说的内容无关:比如“她穿着温暖的羊毛工作服”被翻译为“绿洲是海市蜃楼”。

尽管存在着一些明显的错误,但总体而言,该系统仍可构成基于AI的大脑活动解码的新基准,其最佳状态与专业人类语音转录相当。

当然,与普通人类说话者打交道的专业录音笔必须与扩展成千上万个单词的词汇。相比之下,该系统仅学习了有限的短句中使用的大约250个唯一单词的皮质活动,因此这并不是一个公平的比较。

虽然还有许多障碍需要克服,但研究小组认为,该系统有一天可能成为失去说话能力的患者的福音。如果有可能做到这一点,那将是一件大事——为某些人提供与世界交流的方式。

作者解释说:“在一个长期植入的参与者中,可用的数据量将比本研究中使用的半个小时左右的语音大几个数量级,这表明该系统的词汇量和灵活性还可以极大地扩展。”

该项发现已经发表在《自然神经科学》上,感兴趣的朋友可以自行了解更多~

谢谢大家耐心看完,是不是想说点什么呢,欢迎转发评论哦!我们下期再见~

你可能感兴趣的:(新的AI系统将人脑信号转换为文本的准确性高达97%)