揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

简介: 近年来,神经网络在MLP和Transformer等模型上取得显著进展,但在处理周期性特征时存在缺陷。北京大学提出傅里叶分析网络(FAN),基于傅里叶分析建模周期性现象。FAN具有更少的参数、更好的周期性建模能力和广泛的应用范围,在符号公式表示、时间序列预测和语言建模等任务中表现出色。实验表明,FAN能更好地理解周期性特征,超越现有模型。论文链接:https://arxiv.org/pdf/2410.02675.pdf

近年来,神经网络的发展日新月异,尤其是以MLP(多层感知器)和Transformer为代表的模型,在各种任务中取得了显著的成功。然而,这些模型在处理周期性特征时却暴露出潜在的缺陷。它们往往倾向于记忆周期性数据,而不是真正理解其背后的原理。

周期性是自然界和工程系统中普遍存在的重要特性,它通过重复的模式为预测提供了基础。然而,现有的神经网络在建模和推理周期性方面存在困难。为了解决这一问题,北京大学的研究人员提出了一种名为傅里叶分析网络(FAN)的新型网络架构。

FAN基于傅里叶分析,能够有效地建模和推理周期性现象。通过引入傅里叶级数,FAN将周期性自然地融入到网络结构和计算过程中,从而实现了对周期性模式的更准确表达和预测。

与MLP相比,FAN具有以下优势:

  1. 更少的参数和计算量:FAN可以无缝替代MLP,并在各种模型中使用更少的参数和FLOPs(浮点运算次数)。这不仅提高了计算效率,还减少了模型的复杂性。
  2. 更好的周期性建模能力:FAN通过显式地编码周期性模式,能够更好地理解和建模数据中的周期性特征。这在处理周期性数据时具有重要意义。
  3. 更广泛的应用范围:FAN不仅在周期性建模方面表现出色,还在各种实际任务中展现出优越的性能,如符号公式表示、时间序列预测和语言建模等。

为了验证FAN的有效性,研究人员进行了广泛的实验,包括周期性建模和实际任务应用两个方面。

在周期性建模任务中,FAN与MLP、KAN(另一种新兴模型)和Transformer进行了比较。实验结果表明,FAN在所有任务中都显著优于其他模型,特别是在处理超出训练数据范围的测试数据时。这表明FAN能够真正理解周期性特征,而不仅仅是记忆训练数据。

在实际任务应用中,FAN在符号公式表示、时间序列预测和语言建模等任务中都表现出了优越的性能。

  • 符号公式表示:FAN在表示各种数学和物理函数时,比MLP、KAN和Transformer等模型表现得更好,尤其是在参数数量增加时。这表明FAN不仅能够建模周期性特征,还能够处理非周期性函数。
  • 时间序列预测:FAN与Transformer结合使用时,在四个公开数据集上都取得了最佳性能,包括天气、汇率、交通和能源消耗等数据集。这表明FAN能够提高时间序列预测的准确性。
  • 语言建模:FAN与Transformer结合使用时,在四个情感分析数据集上都取得了最佳性能,包括SST-2、IMDB、Sentiment140和Amazon Reviews等数据集。这表明FAN能够提高语言建模的准确性和泛化能力。

在相关工作中,研究人员回顾了使用神经网络学习周期性和基于傅里叶的神经网络的研究。他们指出,虽然之前的工作已经尝试将周期性信息融入神经网络,但它们的实际性能和应用范围仍然受到限制。FAN通过重新设计网络架构,解决了这些问题,并表现出了更好的性能。

在讨论中,研究人员强调了FAN的表达能力和应用范围。他们指出,FAN理论上具有与MLP相同的表达能力,并引入了对周期性特征的显式建模。这不仅保留了MLP的能力,还增强了其对周期性数据的理解。此外,FAN还在各种实际任务中表现出了优越的性能,这表明它具有广泛的应用潜力。

论文链接:https://arxiv.org/pdf/2410.02675.pdf

目录
相关文章
|
4月前
|
安全 算法 网络安全
网络安全与信息安全:构建数字世界的坚固防线在数字化浪潮席卷全球的今天,网络安全与信息安全已成为维系社会秩序、保障个人隐私和企业机密的关键防线。本文旨在深入探讨网络安全漏洞的本质、加密技术的前沿进展以及提升公众安全意识的重要性,通过一系列生动的案例和实用的建议,为读者揭示如何在日益复杂的网络环境中保护自己的数字资产。
本文聚焦于网络安全与信息安全领域的核心议题,包括网络安全漏洞的识别与防御、加密技术的应用与发展,以及公众安全意识的培养策略。通过分析近年来典型的网络安全事件,文章揭示了漏洞产生的深层原因,阐述了加密技术如何作为守护数据安全的利器,并强调了提高全社会网络安全素养的紧迫性。旨在为读者提供一套全面而实用的网络安全知识体系,助力构建更加安全的数字生活环境。
|
26天前
|
机器学习/深度学习 人工智能 算法
深入解析图神经网络:Graph Transformer的算法基础与工程实践
Graph Transformer是一种结合了Transformer自注意力机制与图神经网络(GNNs)特点的神经网络模型,专为处理图结构数据而设计。它通过改进的数据表示方法、自注意力机制、拉普拉斯位置编码、消息传递与聚合机制等核心技术,实现了对图中节点间关系信息的高效处理及长程依赖关系的捕捉,显著提升了图相关任务的性能。本文详细解析了Graph Transformer的技术原理、实现细节及应用场景,并通过图书推荐系统的实例,展示了其在实际问题解决中的强大能力。
137 30
|
2月前
|
机器学习/深度学习 自然语言处理 数据可视化
【由浅到深】从神经网络原理、Transformer模型演进、到代码工程实现
阅读这个文章可能的收获:理解AI、看懂模型和代码、能够自己搭建模型用于实际任务。
121 11
|
6月前
|
编解码 Go 文件存储
【YOLOv8改进 - 特征融合NECK】 DAMO-YOLO之RepGFPN :实时目标检测的创新型特征金字塔网络
【YOLOv8改进 - 特征融合NECK】 DAMO-YOLO之RepGFPN :实时目标检测的创新型特征金字塔网络
|
3月前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
|
3月前
|
SQL 安全 算法
网络安全与信息安全:构建数字世界的防线在数字化浪潮席卷全球的今天,网络安全与信息安全已成为维系社会秩序、保障个人隐私与企业机密的重要基石。本文旨在深入探讨网络安全漏洞的本质、加密技术的前沿进展以及提升安全意识的有效策略,为读者揭示数字时代下信息保护的核心要义。
本文聚焦网络安全与信息安全领域,详细剖析了网络安全漏洞的形成机理、常见类型及其潜在危害,强调了及时检测与修复的重要性。同时,文章系统介绍了对称加密、非对称加密及哈希算法等主流加密技术的原理、应用场景及优缺点,展现了加密技术在保障数据安全中的核心地位。此外,针对社会普遍存在的安全意识薄弱问题,提出了一系列切实可行的提升措施,如定期安全培训、强化密码管理、警惕钓鱼攻击等,旨在引导公众树立全面的网络安全观,共同构筑数字世界的安全防线。
|
5月前
|
数据采集 量子技术 双11
【2023 年第十三届 MathorCup 高校数学建模挑战赛】C 题 电商物流网络包裹应急调运与结构优化问题 建模方案及代码实现
本文提供了2023年第十三届MathorCup高校数学建模挑战赛C题的详细建模方案及代码实现,针对电商物流网络中的包裹应急调运与结构优化问题,提出了包括时间序列分析在内的多种数学模型,并探讨了物流网络的鲁棒性。
77 2
【2023 年第十三届 MathorCup 高校数学建模挑战赛】C 题 电商物流网络包裹应急调运与结构优化问题 建模方案及代码实现
|
6月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力
【YOLOv8改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力
|
6月前
|
机器学习/深度学习 编解码 计算机视觉
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
|
6月前
|
机器学习/深度学习 分布式计算 MaxCompute
ODPS问题之什么是Join/Inner Join
ODPS问题之什么是Join/Inner Join

热门文章

最新文章