【博士每天一篇文-算法】Community Detection and Classification in Hierarchical Stochastic Blockmodels

简介: 本文介绍了2015年Lyzinski V, Tang M, Athreya在马里兰大学的研究,提出了一种在分层随机块模型中进行社区检测和分类的综合方法,适用于社交网络分析和神经科学等领域,并通过模拟数据和真实数据的实验验证了该方法的有效性。

阅读时间:2023-11-12

1 介绍

年份:2015
作者:Lyzinski V, Tang M, Athreya 马里兰大学
期刊: IEEE Transactions on Network Science and Engineering
引用量:152

提出了一种在分层随机块模型中进行社区检测和分类的综合方法,适用于社交网络分析和神经科学等各个领域。通过对模拟数据和真实数据的实验验证了所提方法的有效性,包括果蝇连接组和Friendster社交网络。

2 创新点

  • 提出了一种在图中进行社区检测和社区比较的方法论,特别关注了分层随机块模型(HSBM)。作者提出了一种稳健且可扩展的方法,其中包括将图嵌入到低维空间中,将顶点聚类成社区,并使用非参数化图推断技术识别这些社区之间的结构相似性。该过程在社区上递归应用以检测更精细的结构。
  • 该论文强调了在大型图中识别和分类局部的低维结构的重要性,这些结构可能由松散连接的较小图基元组成。它提供了社交网络和神经科学中这种结构存在的示例。作者还讨论了他们方法的动机,包括揭示人类大脑新皮层中计算原语的重复实例的需求。
  • 论文对随机点积图模型、随机块模型和分层随机块模型的定义和背景进行了介绍。它介绍了用于社区检测、模式识别和网络比较的算法,并提出了这些算法的理论和性能保证。

请添加图片描述

3 思考

阐述了community structures 中引入分层随机块模型(HSBM)的作用,一篇论文《Investigating Echo State Network Performance with Biologically-Inspired Hierarchical Network Structure》将这个思想应用到了ESN中,实现储层内的模块化结构。

目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
87 12
|
4月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
281 9
|
4月前
|
机器学习/深度学习 算法 机器人
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
65 9
|
4月前
|
机器学习/深度学习 算法 文件存储
【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search
本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。
62 9
|
4月前
|
机器学习/深度学习 算法
【博士每天一篇文献-算法】Adult neurogenesis acts as a neural regularizer
本文研究了成人神经发生(adult neurogenesis)在大脑学习过程中的作用,发现其作为一种神经调节器能提高学习泛化能力,并通过在卷积神经网络(CNN)中模拟神经发生,证明了其作为正则化手段与传统技术一样有效,甚至在某些方面更优。
29 6
|
4月前
|
机器学习/深度学习 存储 开发框架
【博士每天一篇文献-算法】NICE Neurogenesis Inspired Contextual Encoding for Replay-free Class Incremental Learn
NICE(Neurogenesis Inspired Contextual Encoding)是一种新型深度神经网络架构,旨在通过模拟生物神经系统的成熟过程来解决类别增量学习中的灾难性遗忘问题,无需重放旧样本即可实现有效的增量学习。
60 5
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
54 4
|
4月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
89 4
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
97 3
|
4月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
49 3
下一篇
DataWorks