导语:谷歌研究人员创建了能够映射大脑神经元的AI系统,7天就能完成人类需要花10万小时的标注任务,并将准确度较之前的深度学习技术提高10倍。
智东西7月17日消息,昨日,《Nature Methods》刊登了谷歌新论文《High-Precision automated reconstruction of neurons with flood-filling networks》,称其构建的AI系统将帮助神经科学家更好的理解大脑结构和功能。
映射神经系统的生物网络结构属于计算密集型的连接组学(Connectomics)研究范畴。人脑包含大约860亿个通过100亿个突触联网的神经元,对单个立方毫米神经元进行成像可以产生超过1000TB的数据。
幸运的是,AI可以提供帮助。
谷歌研究人员表示,发表在《Nature Methods》上的新论文《High-Precision automated reconstruction of neurons with flood-filling networks》或将有助于神经科学家更好地理解大脑的结构及其功能。谷歌和德国研究中心马克斯普朗克研究所( Max Planck Institute)合作开展了该研究项目。
就像米开朗基罗工作室里的一块大理石一样,神经元的真实形态被困在所有周围空间和其他纠缠神经元的数据中。神经科学家必须手动查看图像,识别神经元切片,并指定计算机中的每一个变成3D模型。谷歌估计,每个样品都是只有1毫米的立方体,完成对全部样品的标注需要10万小时。然而他们所研发的AI经过七天训练,就能完成相同的任务。
传统算法在追踪神经节的过程中,使用边缘检测算法识别神经节之间的边界,然后使用wateshed或graph cut等算法将未被边界分割的图像像素组合在一起。谷歌和马克斯普朗克研究所的研究人员则提出了一种模拟生成神经网络的“floor-filling Networks”模型,将两个步骤结合起来,新算法从特定像素位置开始生长,并使用循环卷积神经网络(Recurrent convolutional neural network,RCNN)不断填充一个区域,进而预测哪些像素和初始像素属于同一物体。
谷歌研究人员不是第一个将机器学习应用于连通组学的人,早在今年三月,英特尔与麻省理工学院计算机科学和人工智能实验室就合作开发了新一代脑图像处理管道。不过谷歌研究人员表示,他们的算法比以前的深度学习技术准确度提高一个数量级。该论文的共同作者Viren Jain表示,这个项目的突破在于教AI一次追踪一个神经元结构,而不是试图同时追踪每个神经元。
为了严格量化准确性,该团队提出了“预期运行长度(ERL)”的测量概念:在大脑的3D图像中给定一个随机神经元,测量算法在出错之前可以跟踪神经元在多远的距离。据研究团队称,在对100万立方微米的斑胸草雀进行脑部扫描时,该模型的表现比以前使用相同数据集的其他深度学习算法“好得多”。
“这个项目真正影响的是可以完成的神经科学研究的数量,”Viren Jain告诉Quartz,“能够以全面的方式研究大脑中神经元的实际模式是历史上神经科学家所无法实现的。”
Viren Jain和该论文的另一位主要作者Michal Januszewski在一篇博客中写道:“通过将这些自动化结果与修复剩余错误所需的少量额外人力相结合,研究人员现在能够研究鸣鸟连接组,以尝试确定斑胸草雀如何学会唱歌曲。”
除了发表论文之外,研究团队还在Github上发布了其模型的TensorFlow代码,以及面向可视化数据集的WebGL 3D软件。他们计划在未来进一步完善该系统,使突触解决过程完全自动化,并“为马克斯普朗克研究所和其他地方的项目做出贡献。”