【博士每天一篇文论文-算法】A small-world topology enhances the echo state property and signal propagationlun

简介: 本文研究了小世界拓扑结构在回声状态网络(ESN)中的作用,发现具有层级和模块化组织的神经网络展现出高聚类系数和小世界特性,这有助于提高学习性能和促进信号传播,为理解神经信息处理和构建高效循环神经网络提供了新的视角。

阅读时间:2023-11-13
标题:A small-world topology enhances the echo state property and signal propagation in reservoir computing

1 介绍

年份:2019
作者:Yuji Kawai,大阪大学
期刊: Neural Networks
引用量:108
本文讨论了小世界拓扑在神经信息处理中的作用。作者特别研究了将小世界(SW)拓扑作为储备池的回声状态网络(ESN)在学习性能上的表现。研究重点在于SW拓扑对ESN具有稳定的回声状态属性和高效的信号传播的潜力。实验结论是具有层级和模块化组织的神经网络呈现小世界特性,即高聚类系数和与随机网络相似的特征路径长度。

2 创新点

(1)通过研究小世界拓扑在神经信息处理中的作用,本文探讨了包含小世界拓扑作为储备池的回声状态网络(ESN)的学习性能。
(2)与大脑中的网络拓扑相结合,该研究可以架起储备计算研究和复杂网络研究之间的桥梁。
(3)作者限制了ESN中的输入和输出节点数量,并将输出节点与输入节点进行了空间隔离。作者在存储容量和非线性时间序列预测任务中测试了ESN的性能,并观察到当权重矩阵具有较大的谱半径,并且输入和输出节点被隔离时,SW-ESN展现出最佳的学习性能。
(4)SW拓扑增强了回声状态特性,并便于将输入信号传播到输出节点。
(5)通过使用人类连接组的回声状态网络评估回声状态特性,得到了类似的结果,说明小世界拓扑在输入和输出脑区之间维持适当的神经动态方面的重要性。
总的来说,本文的创新点在于揭示了小世界拓扑在神经动态方面的作用,以及其在ESN中的应用,这有助于更好地理解神经信息处理,并阐明大脑网络的进化起源。此外,该研究还为构建更好的循环神经网络提供了指导。

3 算法

image.png
图1显示了在探索的分层模块化网络中的粒度和尺度的变化情况。图中的情节展示了具有128个节点和4,096个有向边的网络的100个实现情况。邻接矩阵的灰度阴影表示建立边的频率。 (A) 没有层次结构的随机网络 (B) 由四个模块组成的平坦模块化网络(C)中的最低层次中有16个模块,具有最高的边密度。
生成分层网络的算法通过以下步骤实现:
(1)从一个空的邻接矩阵开始,从最高级别开始添加模块,然后再逐渐向下一个较低级别添加模块。每个模块内部的潜在连接由层级水平和每个模块的子模块数来确定。通过计算每个层级中的边数和节点数,可以确定模块内部的节点连接概率。然后,在邻接矩阵中插入具有边密度的随机图形来表示每个模块。最后,移除对角线上的边(循环),以满足预期的边数和边密度。如果边数略低于预期的边数,可以随机添加额外的边来达到预期的总边数和边密度。
(2)本文中考虑了不同层次级别和每个级别的子模块数量的分层网络。没有层次结构的网络形成随机网络,一个层次的网络形成一个“平坦”的模块化网络,而两个层次的网络则具有模块和子模块,以此类推。
(3)在默认设置中,网络的边数分布给不同的层级,每个层级上的边数相等。这与所用的保持常数边数的策略相对应。可以通过改变该设置来测试不同层次级别的边数。例如,可以减少每个层级的边数或增加每个层级的边数。

4 实验分析

(1)实验角度

  • 研究了不同层次和模块数量对网络动力学和有限持续激活的影响。
  • 探索了不同参数设置下的最优层次化配置,以获得有限持续激活的较大参数范围。
  • 考察了不同网络大小对最优配置的缩放效应,发现随着网络大小的增加,趋向于具有较大层次数或更多模块的最优配置。
  • 考虑了边缘密度或节点连接数保持恒定的情况下的最优配置。
  • 研究了不同层次和子模块数量对有限持续激活的影响。
  • 利用层次化拓扑模型进行了模拟实验,并通过调整层次的数量和子模块的数量来探索有限持续激活的影响。
  • 研究了不同层次的边缘数量对有限持续激活的影响,并测试了边缘数量随层次变化的两种情况:递减或递增。
  • 考察了网络大小对最优层次化网络拓扑结构的影响,并比较了小鼠、猫和恒河猴等不同动物的大脑结构。
  • 在控制实验中,测试了生成层次化网络所使用的几个参数。

(2)展示了确定有限持续活动的参数范围。图中的颜色表示测试情况下有限持续活动的比例,即持续活动的概率,越深的颜色表示概率越高。通过图2,可以看到不同参数设置下的有限持续活动的比例。这有助于确定最佳的层次模块化拓扑结构,以产生神经网络中的有限持续活动。
image.png
图2展示了两个在神经网络中不同参数设置下的模拟结果。每个图中的不同灰度级表示了不同的参数配置下在限定的时间步长内,实验测试到的持续激活的比例。图中灰度较深的区域表示更高的持续激活比例,而灰度较浅的区域表示较低的比例。实验发现,在某些参数设置下,神经网络会达到持续激活的状态,并且灰度较深的区域表示了这种持续激活的比例较高的情况。根据图2中的模拟结果,可以推断出在特定的参数配置下,神经网络可以实现有限持续激活状态。

(3)图3实验结果表明,层次化的网络结构可以产生不同水平的有限持续活动,而不受全局拓扑特性的影响,例如特征路径长度或聚类系数。
image.png
(4)图1-6展示了在不同网络规模下,持续激活的比例以及边缘密度、特征路径长度和平均聚集系数等拓扑特征的变化。通过这些实验结果,可以更好地理解神经网络的结构和功能。
(5)小世界特性是指网络结构中的高聚类系数和较短的特征路径长度。聚类系数是一个节点的邻居节点之间存在连接的频率的平均值。特征路径长度是任意两个节点之间最短路径上的连接数量的平均值。小世界网络中的节点更有可能相互连接,形成高度聚集的连接群组,并且通过较少的步骤可以相互传递信息。同时,这些网络的结构与随机网络相似,其中任意两个节点之间的连接的概率与邻居节点之间的连接的概率相近。
(6)作者使用了一系列实验和模拟来研究神经网络的拓扑结构对于产生有限持续激活的影响。实验得出,具有层级和模块化组织的神经网络呈现小世界特性,即高聚类系数和与随机网络相似的特征路径长度。因此,神经网络在设计上具有小世界特性,这可能有助于提高其信息处理能力。这些结构可以保证网络的高度聚类性,使节点之间的信息传递更加高效。与此同时,特征路径长度的较短可以减少信息传递的时间。这些特性在神经网络的形成和功能方面具有重要的意义。

5 思考

论文分析角度非常丰富,值得借鉴。

目录
相关文章
|
2月前
|
机器学习/深度学习 安全 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
46 0
|
2月前
|
安全 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
35 0
|
2月前
|
自然语言处理 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
37 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(上)
27 0
|
2月前
|
机器学习/深度学习 人工智能 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(下)
23 0
|
12天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
18天前
|
机器学习/深度学习 算法 Serverless
基于WOA-SVM的乳腺癌数据分类识别算法matlab仿真,对比BP神经网络和SVM
本项目利用鲸鱼优化算法(WOA)优化支持向量机(SVM)参数,针对乳腺癌早期诊断问题,通过MATLAB 2022a实现。核心代码包括参数初始化、目标函数计算、位置更新等步骤,并附有详细中文注释及操作视频。实验结果显示,WOA-SVM在提高分类精度和泛化能力方面表现出色,为乳腺癌的早期诊断提供了有效的技术支持。
|
6天前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
6天前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
14天前
|
算法
基于GA遗传算法的PID控制器参数优化matlab建模与仿真
本项目基于遗传算法(GA)优化PID控制器参数,通过空间状态方程构建控制对象,自定义GA的选择、交叉、变异过程,以提高PID控制性能。与使用通用GA工具箱相比,此方法更灵活、针对性强。MATLAB2022A环境下测试,展示了GA优化前后PID控制效果的显著差异。核心代码实现了遗传算法的迭代优化过程,最终通过适应度函数评估并选择了最优PID参数,显著提升了系统响应速度和稳定性。