如果研究成功率更高,将意味着未来“渐冻症”患者会拥有一种全新而又简单的交流方式。
AI技术能够破解我们的大脑吗?最近,国外几个科研小组给出了一个近似的答案。他们通过大脑数据训练出了一种AI系统,在结合既有的深度学习以及语音相关技术,这套系统能够将大脑活动数据“翻译”为语音。
解读大脑活动信息主要是为了那些丧失语言功能的人服务,比如患上渐冻症的病人,他当他们丧失语言能力时候,基本上难以与外界交流,所以有不少研究学者在试图攻克这块难题,去解读他们说话时的脑部信号。
据研究团队介绍,收集大脑活动数据的过程非常艰难,研究所用到的神经网络计算模型需要打开头盖骨植入电极的方式来获取精准的数据,所以这套模型只有在少数脑外科手术的过程中进行信息收集。
在哥伦比亚大学计算机科学家Nima Mesgaran的研究中,他们先收集癫痫患者听到声音时候的听觉皮层信息,然后再用神经网络计算模型转换成相应的语音信息,从而和原始信息进行比较。另外来自加州大学旧金山分校的Gopala K Anumanchipalli 教授团队也做了类似的试验,最终一些内容的识别率超过了80%。
再加上另外一些科研小组的数据,总结来看,当前几个科研小组在研的重建语音技术准确率在40%到80%之间。
如果研究成功率更高,将意味着未来“渐冻症”患者会拥有一种全新而又简单的交流方式。
不过,遗憾的是,目前研究还处于早期阶段,只可以收集解读人们说话时候的大脑信息,当他们在心里默念或者思考时的大脑信号,目前AI还难以理解。
一方面,AI可以从人类大脑的构造中不断地学习优化,比如利用大脑的一些原理,人工神经网络可以实现学习和自主学习。另一方面,AI又反过来深入理解我们的大脑活动。这是一个相辅相成的结果,或许未来有一天,AI真的可以理解人类的情绪,成为有“情感”的技术。