拥有读心术想必是不少人的梦想,少了无谓的揣测,好像很多事情都会方便不少。不过,现在不需要变身别人肚子里的蛔虫了。
华盛顿大学的一项研究实验让我们离读心术的应用又更近了一步。通过大脑植入物和复杂的软件,研究人员现在可以以极高的速度和精度推测出实验对象所看到的物体。
我们的大脑几乎可以实时地识别纸上或计算机屏幕上的二维图像,科学家至今还没有完全理解这一神经系统过程。为了更好地了解我们的大脑是如何完成这项任务的——以及了解计算机是否能够收集并推测一个人实时所见的内容——由华盛顿大学神经学家Rajesh Rao和神经外科医生Jeff Ojermann领导的研究团队通过一个实验证明了以近乎人类感知的速度解码人脑信号是可行的。研究的详细情况可在PLOS Computational Biology查阅。
该团队得到了7位正在接受治疗的癫痫患者的协助。因为药物治疗没能帮助他们缓解癫痫发作,所以这些患者接受了临时的大脑植入物,植入物上安装了可用来定位癫痫发作点的电极。华盛顿大学的研究者利用了这一机会。在华盛顿大学NewsBeat的一篇文章中,Ojermann说:“不管怎样他们都会植入电极。我们只是在他们住院期间给了他们一些额外的任务,否则他们也只能干等着。”
研究人员在计算机显示器上以400毫秒的时间间隔向这些病人展示了随机排列的图片(包括人脸、房屋和空白的灰色屏幕)。他们得到的任务是注意一张上下颠倒的房屋的图像。
任务中所使用的脸和房子图像及其所引起的反应
与此同时,大脑中的电极将受到的信号传输到特定的软件中,然后提取出大脑信号中的两个属性“事件相关电位”(大规模神经元响应图片时产生)和“宽带频谱”变化(观看一张图片后在大脑中徘徊的信号)。
在这些图像在屏幕上闪烁时,连接到电极上的计算机以1000次每秒的速率对输入大脑的信号进行取样。这种高分辨率可以让软件确定哪种电极位置和信号组合与病人所见内容的相关度最好。“从不同的(电极)位置我们能得到不同的响应;一些对脸部敏感,一些对房屋敏感。”Rao说。
对软件进行训练之后,研究人员向病人展示了一组全新的图片。然后让计算机根据传输进来的电极信号推测病人见到的是房屋或人脸或灰色屏幕,结果发现计算机的准确度能够达到96%!而且其识别速度基本上接近与病人的感知速度。
研究指出,这种准确度只能在同时考虑事件相关电位和宽带变化时才能达到。,“它们捕获了实验对象感知状态中两个不同而互补的两个方面”。所以如果要全面了解一个人如何感知一个复杂的视觉对象,就需要考虑使用大型神经网络处理“全局图像”。
尽管研究很有趣,但成果却格外有限。该系统真正的考验是能否处理包含更多种类的更大的图像集。显然目前还难以办到,比如说,计算机能识别人所看到的脸是人脸还是狗脸吗?
但一旦这项技术成熟,这种大脑解码方式可为瘫痪或中风的病人构建新的沟通方式。该技术还可用于协助大脑测绘研究,让神经学家可以确定负责处理不同类型信号的大脑部位。
甚至更进一步还可以将这项技术用于人机通信,通过将大脑和计算机直接通信,人类也将进入人机共生时代,个人乃至人类群体的潜力将得到更大程度的释放。
via PLOS Computational Biology
全球创客马拉松北科大站现已火热开启报名!关注硬创邦微信公众号,回复“北科大”即可参与报名!