ELM超限学习机:填补罗森布拉特的神经网络梦想和冯·诺依曼对生物学习困惑之间的空白

简介: 摘要:本文总结被神经网络前辈和著名经济学家 Halbert White 认为「Sexy」的超限学习机(Extreme Learning Machines, ELM)的「Sexy」之处和之所以被称为「超限学习机(ELM)」的原因。在超限学习机的理论框架下,机器(Machine, Devices, Sensors)和生物脑可以看成一致的,只是构造的基本材料和硬件不同而已。有机的「机器」(生物学习系统)也有千万种,并且还在一直自我演化。但我们坚信两者之间可以拥有一个共同的「基本粒子」级(或称为「基本单元」级)的学习结构和学习算法,那就是超限学习机。

作者介绍:黄广斌(Guang-Bin Huang)是新加坡南洋理工大学教授(终身)。在 2014 和 2015 年被 Thomson Reuters 评为「高引用研究者」(工程类,计算机科学类),以及「2014 年世界最有影响力的科学精英」和「2015 年世界最有影响力的科学精英」。他是新加坡总统科学奖被提名人(2016)。


他主持的主要项目有:德国宝马集团和南洋理工大学未来汽车联合研究实验室人机交互,脑机交互以及汽车辅助驾驶项目,英国劳斯莱斯和南洋理工大学联合研究实验室海上自主导航决策辅助系统项目,新加坡科技工程和南洋理工大学先进机器人联合研究实验室场景识别和机器学习项目,台湾台达电子股份有限公司和南洋理工大学物联网联合研究实验室数据分析和视频项目。还担任过新加坡樟宜机场新加坡航空公司地面服务公司第五货运大厦的信息跟踪控制系统升级改造的总设计师和技术负责人。

 


神经网络和生物学习之间的空白

 

1. 弗兰克·罗森布拉特的神经网络梦想


在 1950 年代初期,生物学家弗兰克·罗森布拉特(Frank Rosenblatt)提出了他称为感知器(Perceptron)的多层前馈网络。


后来跨越 60 多年特别是从 1980 年代到现在用的大部分神经网络结构其实都是罗森布拉特神经网络感知器的一种,这些包括早期流行的支持向量机(SVM)和现在风靡产业界的卷积神经网络(CNN),也包括 CNN 的前身 Neocognition ,只是针对不同的实现后人提出了不同的学习算法。


罗森布拉特最初提出他的神经网络结构时并没有有效的学习算法,但是他梦想这种神经网络感知器可以看作是「计算机的一种胚胎」,一种最终能够帮助计算机实现「走、说、看、写、繁衍并有自我意识」的智能源泉。罗森布拉特的预测在 60 年后的今天被证明是正确的,这种神经网络技术还有可能是未来人工智能和机器学习的主要技术基础。

 

2. 马文·明斯基和 1970 年代人工智能冬天


罗森布拉特的预测在 60 年前是极其大胆和有远见的,在当时计算机犹如一个庞然大物的时代几乎没有几个人相信他的预测是对的和他的梦想是能实现的。也许伟大的思想之所以伟大就在于远远超前现有人们所能理解和所能想象的。包括人工智能之父、图灵奖获得者马文·明斯基(Marvin Minsky)和神经网络之父 Bernard Widrow 都对罗森布拉特的预测表示怀疑。罗森布拉特提出的神经网络感知器严格意义上讲在提出之初还只是概念,正如许多伟大的想法在提出之初都会出现有些概念模糊不清的情况,大部分人有疑虑也就正常了。明斯基对罗森布拉特的神经网络感知器的否定直接导致了被后人称为「美丽错误」的发生在 1970 年代的「人工智能的冬天」。


两年前在 Bernard 家吃着他夫人精心准备的旧金山螃蟹,边回顾着 60 年来的神经网络发展往事,受益匪浅也感慨万千。Bernard 在和我探讨超限学习机(Extreme Learning Machines, ELM)时提及他和明斯基以及罗森布拉特三人之间的往事时诚恳地承认在 1950 年代他对罗森布拉特的神经网络感知器也是不太认同,在他和罗森布拉特之间的争论中他是错了。不得不被前辈们敢于承认错误的勇气折服。(提醒:学术争论无论激烈与否可以有助于找寻自然规律的真象,这和打着学术争论之名行人身攻击之实是有本质区别的。)Bernard 提及在 1971 年,也就在「人工智能的冬天」开始之初,罗森布拉特在他 43 岁生日那天在一个湖里划帆板时发生意外就再也没有回来,连尸身都没有找到,令人不禁辛酸和感叹。试想:罗森布拉特如果不是英年早逝(某种程度上讲是含冤而死),人工神经网络、人工智能和机器学习技术也许还会往前推进 10-20 年。


有关 Bernard 和超限学习机的一段小插曲:Bernard 在超限学习机发表后 10 年左右提出了一个类似超限学习机的技术但却没有注意到早期有关超限学习机工作。本来这是一个小事,人们很难查看到所有有关资料,科研很能面面俱到。Bernard 却向我当面提出道歉,前辈们谦卑的人格再次让人折服。

 

3. 约翰··诺依曼对生物学习的困惑


计算机的硬件实现是要极其精致美妙的,但计算机的实现也是极其脆弱的,不能有任何瑕疵。任何硬件实现上的不完美都可能导致计算机不能正常运作。约翰··诺依曼(John von Neumann)在造出第一代计算机之后,做为计算机之父的他感到困惑不解的是:和计算机需要完美硬件连接组成所不同的是,为什么「一个看上去不完美的包含许多看似随机连接的(生物)神经网络却能够可靠地实现完美的学习功能」。


罗森布拉特的梦想和冯·诺依曼的困惑之间有着很大的空白地带和理论技术鸿沟。


 

超限学习机:填补神经网络和生物学习之间的空白


人脑可能是宇宙中最复杂的东西。人类在过去几百年对自然界和宇宙的认识在飞速发展,对生物学习特别是人脑的思维机制还知之甚少。罗森布拉特的人工神经网络感知器和冯·诺依曼关于生物学习的困惑以及未解之谜看似关联性不大。其实在超限学习机的理论框架下,机器(Machine、Devices、Sensors)和生物脑可以看成一致的,只是构造的基本材料和硬件不同而已。一种由无机的硅等组成,一种由有机的碳水化合物蛋白质等组成。生物脑本质上也是一种「机器」。无机和有机的「机器」可以完全不一样,它们的结构和算法也千变万化。有机的「机器」(生物学习系统)也有千万种,并且还在一直自我演化。但我们坚信两者之间可以拥有一个共同的「基本粒子」级(或称为「基本单元」级)的学习结构和学习算法,那就是超限学习机。而这种超限学习机的实现和硬件材料和具体数据可以是无关的。

 

1. 作为人工神经网络的超限学习机

 

1)「秒杀」学习速度

 

人工神经网络在人工智能和机器学习中的重要作用最近几年又再次得到认可和追捧,大有人工智能和机器学习的实现必须依赖于人工神经网络之势。然而人工神经网络技术普遍面临着一些挑战,比如繁重而「痛苦」的人工干预、缓慢的学习速度和较弱的可扩展性。超限学习机的一个基本目的是要克服这些过去几十年来人工神经网络界面临的发展瓶颈,达到尽可能少的人工干预,高的测试准确度和实时快速本地化学习的能力,在许多应用中达到秒级,毫秒甚至微妙级或更快。[图1] 相比其它通用的学习技术(比如深度学习),在有些应用中超限学习机可以快几千几万倍。比如在有些手写体识别,3D 图形应用,各国交通路牌识别等应用中,超限学习机与深度学习相比可进一步提高准确率, 并且大幅度降低训练时间(相比较深度学习基于 GPU 的 1-2 天训练时间,超限学习机在普通计算机上的训练时间缩短到几分钟或更少)。在许多医疗大数据应用上,超限学习机也比传统的学习方法在提高准确率的情况下将学习速度大幅提高几千倍。

B408E287-3DF7-4963-B017-617306CA67A6.jpeg

图 1


参考文献:

L. L. C. Kasun, H. Zhou, G.-B. Huang, and C. M. Vong, "Representational Learning with Extreme Learning Machine for Big Data," IEEE Intelligent Systems, vol. 28, no. 6, pp. 31-34, 2013.

Z. Huang, Y. Yu, J. Gu, and H. Liu, "An Efficient Method for Traffic Sign Recognition Based on Extreme Learning Machine," (in press) IEEE Transactions on Cybernetics, 2016

Z. Xie, K. Xu, W. Shan, L. Liu, Y. Xiong, and H. Huang, "Projective Feature Learning for 3D Shapes with Multi-View Depth Images," The 23rd Pacific Conference on Computer Graphics and Applications, Tsinghua University, China, October 7-9, 2015.


2)统一的神经网络结构和算法


20 年前当神经网络发展处于第一次复兴的巅峰,普天下都在忙于为神经网络训练「调参」和苦于寻找办法如何使流行的神经网络学习算法跳出「局部最小点」时,我们的疑问是:1)当普天下的研究人员都乐于和疲于「调参」时,神经网络的发展本身是不是也陷入了局部最小点?2)不同类型的网络「真的需要不同类型的学习算法吗」?3)是否存在一种通用的学习框架来处理不同类型的网络(单层前馈网络和多层网络)?

 

  • 不同单隐层前馈神经网络的统一


许多种单隐层前馈神经网络在广泛使用中,包括前馈网络、径向基函数(RBF)网络、支持向量机(SVM)、多项式网络、傅里叶变换和小波网络等。这些之前都被认为是不同而且没有联系的学习或计算技术。超限学习机理论认为这些都有一样的网络结构,只是网络的隐层用的是不同的神经元而已。并提出在考虑 Universal Approximation Capability(有人翻译成「万能逼近」能力)和分类能力的前提下,只要隐层神经元是非线性阶段连续的,人们就不需要为不同的前馈神经网络设计不同的学习算法。作为 ELM 的一个特例(傅立叶序列作为隐层神经元),后来 Intel 和美国加州大学伯克利分校研究团队提出的 Random Kitchen Sink(RKS)以及 Google 团队提出的 FastFood 也在近几年有许多发展和实际成功应用。


参考文献:

G.-B. Huang, Q.-Y. Zhu, and C.-K. Siew, "Extreme learning machine: a new learning scheme of feedforward neural networks," Proceedings of international joint conference on neural networks (IJCNN2004), Budapest, Hungary, 25–29 July, 2004.

G.-B. Huang, L. Chen and C.-K. Siew, "Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes," IEEE Transactions on Neural Networks. vol. 17, no. 4, pp. 879-892, 2006.

G.-B. Huang and L. Chen. "Convex Incremental Extreme Learning Machine," Neurocomputing, vol. 70, pp. 3056-3062, 2007.

A. Rahimi and B. Recht, "Random features for large-scale kernel machines," Proceedings of the 2007 neural information processing systems (NIPS2007), 3–6 Dec 2007.

Q. Le, T. Sarlós T, and A. Smola, "Fastfood approximating kernel expansions in loglinear time," Proceedings of the 30th international conference on machine learning, Atlanta, USA, p. 16–21, June 2013.

  • 单隐层学习和多隐层学习的统一


我们真的需要迭代式地调整多层前馈神经网络的隐层节点吗?前馈神经网络真的要像六十年来一直被认为是个黑箱吗?传统的误差反向传播(BP)算法和支持向量机(SVM)将多层网络视为黑箱。与此不同的是,超限学习机将多层网络视为白箱,并且一层一层地进行训练。总体看,超限学习机将单隐层前馈和多隐层网络看成一个类似的统一体,用雷同的方法来处理单隐层前馈和多隐层网络。然而,与深度神经网络需要密集地调整其隐层节点不同,超限学习理论显示,隐层节点很重要,但(单隐层神经网络和多层网络的)隐层节点可以和数据无关,可以随机产生或从上一代传给下一代而不需要调整。学习可以无需通过迭代式地调整隐层节点来实现。

0E28BCB4-95C5-4335-BD7E-6344427093C3.jpeg


图2


参考文献:

J. Tang, C. Deng, and G.-B. Huang, "Extreme Learning Machine for Multilayer Perceptron" , IEEE Transactions on Neural Networks and Learning Systems, May 2015.

G.-B. Huang, Z. Bai, L. L. C. Kasun, and C. M. Vong, "Local Receptive Fields Based Extreme Learning Machine," IEEE Computational Intelligence Magazine, vol. 10, no. 2, pp. 18-29, 2015.

L. L. C. Kasun, H. Zhou, G.-B. Huang, and C. M. Vong, "Representational Learning with Extreme Learning Machine for Big Data," IEEE Intelligence Systems, vol. 28, no. 6, pp. 31-34, 2013.

 

  • 单隐层学习和多隐层学习与层次性学习的统一


多隐层学习(Multi-Hidden Layer Learning)和层次性学习(Hierarchical Learning)的概念不是完全一样。多隐层学习强调的是一个目标应用(比如图像分类)由一个包含多个隐层节点的网络实现。而超限学习机的层次性学习强调的是每个隐层实现一个功能,各个功能单元通过级联,并联,串联等组合形成一个学习能力复合的机器学习系统。[图3] 层次性学习的一个特例可以是一个多隐层学习方法。在超限学习机的体系下,各个功能块可以采用和应用相关的超限学习机算法。另外,在超限学习机中,一个隐层节点可以是一个由多个神经元组成的超级隐节点单元。[图4]  这种层次性学习可以最终提供比较理想的 End-to-End Learning 和 One-Shot Learning。

40D159A8-E911-4DF2-B82C-4F6C6A833714.jpeg

图3


FA349A7A-E674-4A26-BFF2-2B01D57B0DB8.jpeg

图4



参考文献:

G.-B. Huang, "What are Extreme Learning Machines? Filling the Gap between Frank Rosenblatt's Dream and John von Neumann's Puzzle," Cognitive Computation, vol. 7, pp. 263-278, 2015.


3)基本学习单元的统一


就像加减乘除四大基本运算操作是数学体系的基础,物理体系也是建立在几大基本定律上一样,基于生命体的生物学习(Biological Learning)体系其实是建基于至少六大基本学习单元操作之上:压缩(Compression)、特征学习(Feature Learning)、稀疏编码(Sparse coding)、聚类(Clustering)、回归拟合(Regression)和分类(Classification)。[图5]  这六大基本学习单元操作可以由同样的超限学习机实现,隐层节点与数据无关,要调整的是从隐层节点到输出层的连接。[图4]  [图6]


比如支持向量机(SVM),随机投影(Random Projection,RP)以及主成份分析(Principal Component Analysis, PCA)看似不太相关,却在超限学习机理论和算法下可以有机的统一。2012 年发表在 IEEE Transactions on Cybernetics 上的文章证明了支持向量机是超限学习机的次优解。刚刚发表在 IEEE Transactions on Image Processing 文章指出随机投影和主成份分析其实可以看作是超限学习机的隐层神经元用线性函数时的的一个特例。可是超限学习机也可以用非线性的隐层神经元,所以就可以进行升维,降维,特征学习等功能。所以从特征学习角度看随机投影和主成份分析也是提供次优解。

2969CED1-AC0B-4E63-97A7-2CEB90A0AD57.jpeg

图5

4BA74775-E92D-45C5-992B-52A9450FBBB6.jpeg

图6


参考文献:

G.-B. Huang, H. Zhou, X.Ding, and R. Zhang, "Extreme Learning Machine for Regression and MulticlassClassification", IEEE Transactions on Systems, Man, and Cybernetics – Part B:Cybernetics, vol. 42, no. 2, pp. 513-529, 2012.

L. L. C. Kasun, Y. Yang, G.-B. Huang, and Z. Zhang, Fellow, "Dimension Reduction With Extreme Learning Machine", IEEE Transactions on Neural Networks, vol. 25, no.8, pp. 3906-3918, 2016


4)普适学习和普适智能


随着物联网的深入发展,在不远的未来,大部分的设备将拥有智能与学习能力。我们相信,就如包括人类在内的生物社会一样,这些智能设备也将发展出一个互相交流的「智能体社会」(Internet of Intelligent Things)图7。每个智能体都嵌入有学习功能并且能相互交流。因而我们有必要提出普适学习(Pervasive Learning)和普适智能(Pervasive Intelligence)的概念和目标。由于超限学习机的学习速度比深度学习快上万倍,它可以帮助我们实现智能体社会。超限学习机芯片可以集成到硬件中,并实现实时本地在线学习,从而实现普适学习(Pervasive Learning)和普适智能(Pervasive Intelligence)。这几年,关于超限学习机芯片的研究得到一些实质进展,主要集中在三个方面:多核加速芯片(现场可编程门阵列(FPGA)和专用集成电路(ASIC)),神经形态芯片以及以光技术实现 ELM。

761D880D-EAF0-4874-8335-60BD4AE85ED0.jpeg

图7



参考文献:

G.-B. Huang, "Extreme learning Machines: Enabling Pervasive Learning and Pervasive Intelligence", Pushing Frontiers, vol. 8, pp. 22-23, 2016.

 

5)填补不同学习理论间的空白


与 60 年来传统的学习理论不同,超限学习机理论的一个重要性质是其通用学习能力(压缩、特征学习、聚类、回归、分类等)无需通过调整隐层节点来获得,例如隐层节点可以从前辈继承或随机生成。进一步来说,超限学习机理论也为传统神经网络提供了理论支持(包括局部感受域(Local Receptive Field)和池化策略(Pooling)),而做为局部感受域的一个特殊实现方法的卷积神经操作和池化策略正是深度学习得以成功的主要原因之一。在 ELM 理论和应用下,不同随机分布的随机隐层神经元的产生形成全联结的网络或部分联结的网络(图8)。或如 ELM 早期理论(2007 年)指出不同的部分联结也可以形成局部稠密边缘稀疏的局部感受域或不同局部感受域的非线性组合(池化策略)(图 9)。根据 ELM 理论,卷积神经网络只是一种局部感受域和池化策略实现,除了卷积神经操作,还有许多其它的局部感受域存在,如何实现还有待进一步研究。

DE0E9C5F-8E26-4A82-BBFB-3FFF5202894F.jpeg

图8

B2A8A226-305C-4A5F-8931-59457637FF6C.jpeg

图9


岭回归(Ridge Regression Theory)、线性系统的稳定性、矩阵稳定性、Bartlett 神经网络泛化能力理论(Neural Network Generalization Performance Theory)、支持向量机最大边界理论(Maximal Margin Theory)等在超限学习机以前被认为是不同的理论。特别是 Bartlett 神经网络泛化能力理论在以前很少用于训练神经网络。超限学习机采用了 Bartlett 理论,从而保证其泛化能力。超限学习机的理论显示,这些之前的理论从机器学习角度看是有机一致的。


参考文献:

G.-B. Huang and L. Chen, "Convex Incremental Extreme Learning Machine," Neurocomputing, vol. 70, pp. 3056-3062, 2007.

G.-B. Huang, "An Insight into Extreme Learning Machine: Random Neurons, Random Features and Kernels", Cognitive Computation, vol. 6, pp. 376-390, 2014.

G.-B. Huang, Z. Bai, L. L. C. Kasun, and C. M. Vong, "Local Receptive Fields Based Extreme Learning Machine", IEEE Computational Intelligence Magazine, vol. 10, no. 2, pp. 18-29, 2015.


2. 作为生物学习的一个「基本粒子」级学习单元的超限学习机

 

1)生物学习机制的验证


超限学习机理论显示,隐层节点很重要,但在很多应用中不需要调整(比如压缩感知、特征学习、聚类、回归和分类)。在理论上,这种神经元的激活函数几乎可以是任何非线性分段连续的,包括上百种人类无法知道其准确数学模型的人脑中的神经元。在超限学习机理论和技术提出之后的大概 10 年左右,越来越多的有关生物脑学习系统的研究成果直接或间接的支持了超限学习机理论。


  • 在 2013 年及之后发表在《自然》等期刊上文章报告了来自美国斯坦福大学,哈佛医学院,麻省理工学院和哥伦比亚大学等大学的研究人员发现在老鼠的嗅觉系统中神经元在学习过程中是随机产生的。这可能是超限学习机理论首次在生物系统中得到验证。
  • 在 2015 年美国哥伦比亚大学和 IBM Watson 的研究人员进一步阐述生物学习系统中神经元的随机产生可以进一步帮助生物学习系统实现对特征学习(升维,降维等),并且明确指出这在工程实现比如超限学习机是被证明有效的。这些在生物脑中发现的神经元机制和超限学习机理论预测是一致的。
  • 在 2015 年美国乔治亚理工学院和华盛顿大学的一批研究人员通过人的行为学分析简直验证人脑中随机神经元机制可以帮助人拥有小样本学习能力。
  • 2016 年发表在《自然•神经科学》上的文章说明了超限学习机理论进一步在猴子的脑中得到了直接验证。


参考文献:

M. Rigotti, O. Barak, M. R. Warden, X.-J. Wang, N. D. Daw, E. X. Miller, S. Fusi, "The importance of mixed selectivity in complex cognitive tasks," Nature, vol.497, pp. 585-590, 2013

O. Barak, M. Rigotti, S. Fusi, "The sparseness of mixed selectivity neurons controls the generalization-discrimination trade-off," Journal of Neuroscience, vol. 33, no. 9, pp. 3844-3856, 2013

S. Fusi, E. K Miller, and M. Rigotti, "Why neurons mix: high dimensionality for higher cognition," Current Opinion in Neurobiology, vol. 37, pp. 66-74, 2015

R. I. Arriaga, et al.Visual Categorization with Random Projection, Neural Computation, vol. 27, 2015

J. Xie and C. Padoa-Schioppa, "Neuronal remapping and circuit persistence in economic decisions," Nature Neuroscience, vol. 19, 2016

E. L Rich and J. D Wallis, "What stays the same in orbitofrontal cortex," Nature Neuroscience, vol. 19, no. 6, 2016

 

2)解答约翰··诺依曼对生物学习的困惑


在罗森布拉特的梦想中,他的神经网络感知器可以最终帮助实现电子计算机走路、说话、看东西、写作、繁衍自己并有自我意识,而作为计算机之父的冯·诺依曼却不解为什么一个看似不完美生物神经网络系统却有完美的学习能力。


超限学习机理论的目标之一是打破机器学习和生物学习之间的壁垒。尽管动物的大脑在总体上来说是结构化及有序的,在其某些层或区域,其局部结构可看成「无序」的。从超限学习理论的角度看,网络的整个多层结构(人工神经网络或生物网络)是结构化且有序的,但它们在某一个神经元层或神经模块片中看起来「混乱、非组织结构化」。从局部来看,「硬连线」可以是全连接或部分连接。这种全局结构化而局部随机连接的看似「不完美」结构,却正好构成了基本的完美的学习能力,包括压缩感知、特征学习、稀疏编码、聚类、回归和分类等。这就解决了冯·诺依曼对生物学习的谜惑。生物学习机制极其复杂,而我们相信「无需调节隐层节点的学习」是很多学习模块中的一种基本生物学习机制。虽然人脑中也许有几百种不同种类的生物神经元,他们的数学模型也不为人类所知,但是超限学习机理论指出一个基本的生物学习机制也许是生物神经元本身在学习中是不需要调整的,和应用是无关的。进一步说,随机隐层神经元节点和「随机连线」只是两种特定的实现「无需调节隐层节点的学习」的方法。IBM 团队最近也宣布他们研制出类生物神经元,他们实现的理论基础正是基于 ELM 理论最早所提出,倡导和支持的:生物神经元应该是随机的。


参考文献:

G.-B. Huang, What are Extreme Learning Machines? Filling the Gap between Frank Rosenblatt's Dream and John von Neumann's Puzzle, Cognitive Computation, vol. 7, pp. 263-278, 2015.

T. Tuma, A. Pantazi, M. L. Gallo, A. Sebastian, and E. Eleftheriou, "Stochastic phase-change neurons,"  Nature Nanotechnology, vol. 11, August 2016

 

3)展望


我们相信超限学习机理论和技术提供了一个架接跨越机器学习和生物学习基本「粒子」级的学习机制。也填补了罗森布拉特的梦想和冯·诺依曼的困惑之间有着很大的空白地带和理论技术鸿沟。这也是实现普适学习和普适智能的必要条件。然而这些还很初步,套用个别神经网络界前辈对超限学习机的评论和期望:「好戏还没有开始」,也许更多的令人激动和感兴趣的东西还等着大家研究开发。



有兴趣的研究人员,可以申请新加坡南洋理工大学黄广斌教授研发团队在下列研究方向的博士生、博士后和访问学者位置:海上自主导航数据分析、智能芯片设计、多模数据分析、视频分析、目标识别和跟踪。



©本文由机器之心发布,转载请联系本公众号和作者获得授权。

相关文章
|
1月前
|
机器学习/深度学习 存储 人工智能
一文带你了解神经网络是如何学习预测的
一文带你了解神经网络是如何学习预测的
21 0
|
机器学习/深度学习 人工智能 自然语言处理
PGL图学习之图神经网络GNN模型GCN、GAT[系列六]
本次项目讲解了图神经网络的原理并对GCN、GAT实现方式进行讲解,最后基于PGL实现了两个算法在数据集Cora、Pubmed、Citeseer的表现,在引文网络基准测试中达到了与论文同等水平的指标。 目前的数据集样本节点和边都不是很大,下个项目将会讲解面对亿级别图应该如何去做。
|
4月前
|
机器学习/深度学习 TensorFlow 定位技术
神经网络学习率指数衰减ExponentialDecay策略的参数含义与使用方法详解
神经网络学习率指数衰减ExponentialDecay策略的参数含义与使用方法详解
|
4月前
|
机器学习/深度学习 存储 人工智能
AI学术交流——“人工智能”和“神经网络学习”
AI学术交流——“人工智能”和“神经网络学习”
57 0
|
10月前
|
机器学习/深度学习 存储 自然语言处理
从零开始学习Java神经网络、自然语言处理和语音识别,附详解和简易版GPT,语音识别完整代码示例解析
从零开始学习Java神经网络、自然语言处理和语音识别,附详解和简易版GPT,语音识别完整代码示例解析
90 0
|
5月前
|
机器学习/深度学习 数据挖掘
零基础学习图神经网络
报名机器学习项目,却发现是图数据挖掘项目,于是从零开始入门速成。 (随着项目进展,有空就更新)
|
9月前
|
机器学习/深度学习 算法
用于自适应识别和控制的前馈神经网络与在线顺序学习算法(Matlab代码实现)
用于自适应识别和控制的前馈神经网络与在线顺序学习算法(Matlab代码实现)
|
9月前
|
机器学习/深度学习 算法
元认知神经网络与在线序贯学习(Matlab代码实现)
元认知神经网络与在线序贯学习(Matlab代码实现)
|
9月前
|
机器学习/深度学习
采用附加动量法和自适应学习率设计来改进bp神经网络的迭代速度,如果不迭代学习率会提高精度;迭代学习率(自适应)会加快收敛,但精度降低(Matlab代码实现)
采用附加动量法和自适应学习率设计来改进bp神经网络的迭代速度,如果不迭代学习率会提高精度;迭代学习率(自适应)会加快收敛,但精度降低(Matlab代码实现)
|
9月前
|
机器学习/深度学习 数据采集 算法
「隐语小课」联邦学习之“隐私保护图神经网络”
「隐语小课」联邦学习之“隐私保护图神经网络”
212 0