Cell研究揭示生物神经元强大新特性,是时候设计更复杂的神经网络了!

简介:

深度学习(DL)或者人工神经网络(ANN)模拟了生物神经元?

这是个很大的误解。

ANN充其量模仿了一个1957年面世的低配版神经元。

任何宣称深度学习的灵感来源于生物的人都是出于种种营销目的,或者他压根就没读过生物学文献。

不过,仿生系统研究怕是要遇到阻碍了。

两篇最近发表于Cell上的神经元基因Arc的新发现,揭示了生物神经元更大的复杂性,其远比我们想象得复杂得多。

87729b4ff4dd3e1dd759fd27e67c87b195a536e8

深度学习里的神经元实质上是数学函数,即相似度函数。在每个人工神经元内,带权重的输入信号和神经元的阈值进行比较,匹配度越高,激活函数值为1并执行某种动作的可能性就越大,不执行(对应函数值为0)的可能性越小。

虽然有个别例外情况(比如自回归神经网络Autoregressive networks),但多数深度学习算法都是这样工作的,比如感知器(perceptron)、卷积神经网络(Convolutional Neural Network,CNN)以及循环神经网络(Recurrent Neural Network, RNN)。

生物神经元和深度学习的概念大不相同。

生物神经元并不会保持连续信号,而是产生动作电位,或者依据事件做出相应行为。

因此,所谓“神经形态”(neuromorphic)的硬件,也就是受到“整合信息,然后发送信号”(integrate and spike)的神经元的启发。

如果你对构建一个仿生认知系统感兴趣,可以看看今年2月这篇普度大学的论文。你必须知道的是,这类系统并不像深度学习框架那样具有连续作用性。

71a22b81eb92ea695b7984c336628481ccfaf96d

从本质上来讲,生物系统利用最少的能量来维持生存,但深度学习系统需要消耗非常多的能量,对比十分鲜明。深度学习采用蛮力手段(不断尝试和犯错)来实现认知,我们知道它的运作原理,但是还不知道怎么减少深度学习的能耗。

一直以来,学术界一直以来希望用仿生手段创造出比深度学习更加强大的体系,虽然在这个方面努力了很久,但是进展尚不明显。已经取得的进展有HTM神经元,它更贴近新大脑皮层(neo-cortex)结构。从下图中可以看出,这种神经元模型要比深度学习中的神经元复杂得多。

fb31d4bcc2dcab5ea484c545b8a1bab32a5767b8

左:深度学习ANN,中:生物神经元,右:HTM神经元

相比之下,深度学习方法虽然用的是和卡通一样简单的神经元模型,近一段时间以来却意外大显身手,在认知方面取得了让人难以置信的成效。深度学习所做的事情非常正确,只是我们还不了解它做的究竟是什么。

不过,仿生系统研究怕是要遇到阻碍了。以色列的一个关于神经元性质的新实验表明,生物中的神经元比我们想象得复杂得多:

43ed91b10fac66bf1c932074c0fb592282e6e2e1

总结一下,生物神经元的这些特性我们才刚刚知道:

  • 单个神经元的峰电位波形通常随着刺激部位的不同而改变,两者的关系可以用函数表达;

  • 在细胞外,从不同方向施加的刺激并不能引起空间性加成(Spatial summation);

  • 当细胞内外刺激交叠时,不会产生空间性加成或者空间性相减(Spatial subtraction)。如果这些刺激的精确时值互不相关,那么非局部时间的干扰也不能奏效。

简而言之,一个神经元里所发生的事情远不止“计算-输出”这么简单。


生物神经元很可能不是随着单一参数(也就是权重)而改变的纯函数能够描述的。它们更像是能显示各种状态的机器。换句话说,权重或许不是单值,而是多重值的,甚至是更高维度的。这些神经元的性质仍有待探索,我们对此几乎一无所知。

d95cf1e4a69502c330d156f64137a703137b8396

如果你觉得这样的解释让理解神经元性质变得更难了,那还有两篇最近发表于Cell上的神经元基因Arc的新发现,揭示了更大的复杂性。

神经元释放的细胞外囊泡中,很多都含有一种叫做Arc的基因,可以帮助神经元之间相互建立连接。那些被基因改造后缺乏Arc基因的小鼠难以形成长期记忆,而人类的一些神经功能障碍也与这个基因有关。

这项研究表明,神经元之间的交流是通过发送成套RNA编码实现的。更准确地说,是成套的指令而非数据。发送编码和发送数据完全是两码事。这也就意味着,一个神经元的行为可以改变另一个神经元的行为;不是通过观察,而是通过彼此修正。

这种编码交换机制隐隐证实了一些早期的猜想:“生物大脑仅仅是由离散的逻辑构成的吗?”

实验结果揭示了一个新的事实。即使在我们认知的最小单位,也就是单个神经元之间,也存在着一种对话式的认知(conversational cognition)。这种认知不断修正神经元彼此的行为。

因此,神经元不仅是有不同状态的机器,也是预先设定了指令的、能相互发送编码的通路。

这些实验对我们有两点明确的启示。

第一,我们对人类大脑计算能力的估计可能偏差了至少一个数量级。

如果粗略地设定一个神经元只执行一次运算,那么整体上看人类大脑可以完成每秒38拍字节(Peta)的运算(1拍字节=10^15字节)。

如果假定深度学习模型里的运算都等价于浮点数的运算,那么大脑的性能可以匹敌一个每秒3.8亿亿次浮点运算的电脑系统。当前最顶尖的超级计算机——中国的神威·太湖之光(Sunway Taihulight)的峰值性能是每秒12.5亿亿次/秒。

然而,大脑的实际运算能力很有可能是我们认为的10倍之多,也就是38亿亿次/秒。不过显而易见的是,生物大脑实际上只用了较少的计算就实现了非常多的认知。

第二,未来在探究深度学习架构时,人们会很热心地采用内部结构更复杂的神经元或者节点。

现在到了重新开始,并探究更复杂的神经元的时候了。迄今为止,我们遇到的比较复杂的神经元类型来自于长短期记忆(Long Short Term Memory, LSTM)。以下展示的是针对LSTM神经元的蛮力架构搜索:

024b4c284b6ceff8c1c8bcaf1051b9e9d938f55b

目前尚不清楚为什么这些更复杂的LSTM更为有效,只有架构搜索算法才明白其中缘由,不过算法可不会解释自己是怎么回事的。

最近发布的一篇来自CMU和蒙特利尔大学的论文探究了设计更为复杂的LSTMs。

01730ac862395a43b7025b05062ec7cad07d3dec

Nested LSTMs相对于标准的LSTMs实现了重大改进。

abe4c5ad58ba54282d53ebcdad842ae13c706543

综上所述,致力于探究更加复杂的神经元类型的研究计划可能会带来丰硕的成果,甚至可以和把复数值应用于神经网络上带来的硕果相提并论。

在复数神经网络中,只有应用于RNN才能体现出性能的改善。这也表明,要想超越简单的感知,内部神经元复杂度可能是必需的。

这些复杂性对于更高级的认知是必要的,这是现有深度学习认知系统所不具备的。无论是对抗特征的强健性,还是让机器学会忘记、学会忽略什么、学习抽象和识别上下文语境的切换,都是相当复杂的事。

预计在不久的将来,这一领域会出现更多积极大胆的研究。毕竟,大自然已经明确地告诉我们,神经元个体是更复杂的,因而我们创造的神经元模型也可能需要更复杂。


原文发布时间为:2018-05-10

本文作者:文摘菌

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“大数据文摘”。

相关文章
|
2月前
|
安全 算法 网络安全
网络安全与信息安全:构建数字世界的坚固防线在数字化浪潮席卷全球的今天,网络安全与信息安全已成为维系社会秩序、保障个人隐私和企业机密的关键防线。本文旨在深入探讨网络安全漏洞的本质、加密技术的前沿进展以及提升公众安全意识的重要性,通过一系列生动的案例和实用的建议,为读者揭示如何在日益复杂的网络环境中保护自己的数字资产。
本文聚焦于网络安全与信息安全领域的核心议题,包括网络安全漏洞的识别与防御、加密技术的应用与发展,以及公众安全意识的培养策略。通过分析近年来典型的网络安全事件,文章揭示了漏洞产生的深层原因,阐述了加密技术如何作为守护数据安全的利器,并强调了提高全社会网络安全素养的紧迫性。旨在为读者提供一套全面而实用的网络安全知识体系,助力构建更加安全的数字生活环境。
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【8月更文挑战第1天】在当今科技飞速发展的时代,AI已成为日常生活中不可或缺的一部分。神经网络作为AI的核心,通过模拟人脑中的神经元连接方式处理复杂数据模式。利用Python及其强大的库TensorFlow,我们可以轻松构建神经网络模型。示例代码展示了如何建立一个含有两层隐藏层的简单神经网络,用于分类任务。神经网络通过反向传播算法不断优化权重和偏置,从而提高预测准确性。随着技术的进步,神经网络正变得越来越深、越来越复杂,能够应对更加艰巨的挑战,推动着AI领域向前发展。
46 2
|
5月前
|
机器学习/深度学习 人工智能 算法
海洋生物识别系统+图像识别+Python+人工智能课设+深度学习+卷积神经网络算法+TensorFlow
海洋生物识别系统。以Python作为主要编程语言,通过TensorFlow搭建ResNet50卷积神经网络算法,通过对22种常见的海洋生物('蛤蜊', '珊瑚', '螃蟹', '海豚', '鳗鱼', '水母', '龙虾', '海蛞蝓', '章鱼', '水獭', '企鹅', '河豚', '魔鬼鱼', '海胆', '海马', '海豹', '鲨鱼', '虾', '鱿鱼', '海星', '海龟', '鲸鱼')数据集进行训练,得到一个识别精度较高的模型文件,然后使用Django开发一个Web网页平台操作界面,实现用户上传一张海洋生物图片识别其名称。
183 7
海洋生物识别系统+图像识别+Python+人工智能课设+深度学习+卷积神经网络算法+TensorFlow
|
5月前
|
Java 数据挖掘 开发者
Java网络编程进阶:Socket通信的高级特性与应用
【6月更文挑战第21天】Java Socket通信是分布式应用的基础,涉及高级特性如多路复用(Selector)和零拷贝,提升效率与响应速度。结合NIO和AIO,适用于高并发场景如游戏服务器和实时数据分析。示例展示了基于NIO的多路复用服务器实现。随着技术发展,WebSockets、HTTP/2、QUIC等新协议正变革网络通信,掌握Socket高级特性为应对未来挑战准备。
49 1
|
1月前
|
存储 安全 网络安全
云端盾牌:云计算时代的网络安全守护在数字化浪潮中,云计算以其高效、灵活的特性成为企业转型的加速器。然而,伴随其迅猛发展,网络安全问题亦如影随形,成为悬在每个组织头顶的达摩克利斯之剑。本文旨在探讨云计算服务中的网络安全挑战,分析信息安全的重要性,并提出相应对策,以期为企业构建一道坚实的云端防护网。
在当今这个数据驱动的时代,云计算已成为推动创新与效率的关键力量。它允许用户随时随地访问强大的计算资源,降低了企业的运营成本,加速了产品上市时间。但随之而来的网络威胁也日益猖獗,尤其是对于依赖云服务的企业而言,数据泄露、身份盗用等安全事件频发,不仅造成经济损失,更严重损害品牌信誉。本文深入剖析云计算环境中的安全风险,强调建立健全的信息安全管理机制的重要性,并分享一系列有效策略,旨在帮助企业和个人用户在享受云服务带来的便利的同时,也能构筑起强有力的网络防线。
|
1月前
|
SQL 安全 算法
网络安全与信息安全:构建数字世界的防线在数字化浪潮席卷全球的今天,网络安全与信息安全已成为维系社会秩序、保障个人隐私与企业机密的重要基石。本文旨在深入探讨网络安全漏洞的本质、加密技术的前沿进展以及提升安全意识的有效策略,为读者揭示数字时代下信息保护的核心要义。
本文聚焦网络安全与信息安全领域,详细剖析了网络安全漏洞的形成机理、常见类型及其潜在危害,强调了及时检测与修复的重要性。同时,文章系统介绍了对称加密、非对称加密及哈希算法等主流加密技术的原理、应用场景及优缺点,展现了加密技术在保障数据安全中的核心地位。此外,针对社会普遍存在的安全意识薄弱问题,提出了一系列切实可行的提升措施,如定期安全培训、强化密码管理、警惕钓鱼攻击等,旨在引导公众树立全面的网络安全观,共同构筑数字世界的安全防线。
|
2月前
|
机器学习/深度学习 安全 网络安全
云端盾牌:云计算时代的网络安全守护在这个数字脉搏加速跳动的时代,云计算以其高效、灵活的特性,成为推动企业数字化转型的强劲引擎。然而,正如每枚硬币都有两面,云计算的广泛应用也同步放大了网络安全的风险敞口。本文旨在探讨云计算服务中网络安全的关键作用,以及如何构建一道坚不可摧的信息防线,确保数据的安全与隐私。
云计算作为信息技术领域的革新力量,正深刻改变着企业的运营模式和人们的生活。但在享受其带来的便利与效率的同时,云服务的安全问题不容忽视。从数据泄露到服务中断,每一个安全事件都可能给企业和个人带来难以估量的损失。因此,本文聚焦于云计算环境下的网络安全挑战,分析其根源,并提出有效的防护策略,旨在为云服务的安全使用提供指导和参考。
66 8
|
2月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络深度剖析:Python带你潜入AI大脑,揭秘智能背后的秘密神经元
【9月更文挑战第12天】在当今科技飞速发展的时代,人工智能(AI)已深入我们的生活,从智能助手到自动驾驶,从医疗诊断到金融分析,其力量无处不在。这一切的核心是神经网络。本文将带领您搭乘Python的航船,深入AI的大脑,揭秘智能背后的秘密神经元。通过构建神经网络模型,我们可以模拟并学习复杂的数据模式。以下是一个使用Python和TensorFlow搭建的基本神经网络示例,用于解决简单的分类问题。
47 10
|
2月前
|
机器学习/深度学习 监控 并行计算
深度学习之生物网络推理
基于深度学习的生物网络推理利用深度学习技术来解析和理解生物网络(如基因调控网络、代谢网络、蛋白质-蛋白质相互作用网络等)的复杂关系和动态行为。
48 5
|
4月前
|
机器学习/深度学习 自然语言处理
像生物网络一样生长,具备结构可塑性的自组织神经网络来了
【7月更文挑战第24天】Sebastian Risi团队发布的arXiv论文探讨了一种模仿生物神经网络生长与适应特性的新型神经网络。LNDP利用结构可塑性和经验依赖学习,能根据活动与奖励动态调整连接,展现自我组织能力。通过基于图变换器的机制,LNDP支持突触动态增删,预先通过可学习随机过程驱动网络发育。实验在Cartpole等任务中验证了LNDP的有效性,尤其在需快速适应的场景下。然而,LNDP在复杂环境下的可扩展性及训练优化仍面临挑战,且其在大规模网络和图像分类等领域的应用尚待探索
85 20