揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

简介: 近年来,神经网络在MLP和Transformer等模型上取得显著进展,但在处理周期性特征时存在缺陷。北京大学提出傅里叶分析网络(FAN),基于傅里叶分析建模周期性现象。FAN具有更少的参数、更好的周期性建模能力和广泛的应用范围,在符号公式表示、时间序列预测和语言建模等任务中表现出色。实验表明,FAN能更好地理解周期性特征,超越现有模型。论文链接:https://arxiv.org/pdf/2410.02675.pdf

近年来,神经网络的发展日新月异,尤其是以MLP(多层感知器)和Transformer为代表的模型,在各种任务中取得了显著的成功。然而,这些模型在处理周期性特征时却暴露出潜在的缺陷。它们往往倾向于记忆周期性数据,而不是真正理解其背后的原理。

周期性是自然界和工程系统中普遍存在的重要特性,它通过重复的模式为预测提供了基础。然而,现有的神经网络在建模和推理周期性方面存在困难。为了解决这一问题,北京大学的研究人员提出了一种名为傅里叶分析网络(FAN)的新型网络架构。

FAN基于傅里叶分析,能够有效地建模和推理周期性现象。通过引入傅里叶级数,FAN将周期性自然地融入到网络结构和计算过程中,从而实现了对周期性模式的更准确表达和预测。

与MLP相比,FAN具有以下优势:

  1. 更少的参数和计算量:FAN可以无缝替代MLP,并在各种模型中使用更少的参数和FLOPs(浮点运算次数)。这不仅提高了计算效率,还减少了模型的复杂性。
  2. 更好的周期性建模能力:FAN通过显式地编码周期性模式,能够更好地理解和建模数据中的周期性特征。这在处理周期性数据时具有重要意义。
  3. 更广泛的应用范围:FAN不仅在周期性建模方面表现出色,还在各种实际任务中展现出优越的性能,如符号公式表示、时间序列预测和语言建模等。

为了验证FAN的有效性,研究人员进行了广泛的实验,包括周期性建模和实际任务应用两个方面。

在周期性建模任务中,FAN与MLP、KAN(另一种新兴模型)和Transformer进行了比较。实验结果表明,FAN在所有任务中都显著优于其他模型,特别是在处理超出训练数据范围的测试数据时。这表明FAN能够真正理解周期性特征,而不仅仅是记忆训练数据。

在实际任务应用中,FAN在符号公式表示、时间序列预测和语言建模等任务中都表现出了优越的性能。

  • 符号公式表示:FAN在表示各种数学和物理函数时,比MLP、KAN和Transformer等模型表现得更好,尤其是在参数数量增加时。这表明FAN不仅能够建模周期性特征,还能够处理非周期性函数。
  • 时间序列预测:FAN与Transformer结合使用时,在四个公开数据集上都取得了最佳性能,包括天气、汇率、交通和能源消耗等数据集。这表明FAN能够提高时间序列预测的准确性。
  • 语言建模:FAN与Transformer结合使用时,在四个情感分析数据集上都取得了最佳性能,包括SST-2、IMDB、Sentiment140和Amazon Reviews等数据集。这表明FAN能够提高语言建模的准确性和泛化能力。

在相关工作中,研究人员回顾了使用神经网络学习周期性和基于傅里叶的神经网络的研究。他们指出,虽然之前的工作已经尝试将周期性信息融入神经网络,但它们的实际性能和应用范围仍然受到限制。FAN通过重新设计网络架构,解决了这些问题,并表现出了更好的性能。

在讨论中,研究人员强调了FAN的表达能力和应用范围。他们指出,FAN理论上具有与MLP相同的表达能力,并引入了对周期性特征的显式建模。这不仅保留了MLP的能力,还增强了其对周期性数据的理解。此外,FAN还在各种实际任务中表现出了优越的性能,这表明它具有广泛的应用潜力。

论文链接:https://arxiv.org/pdf/2410.02675.pdf

目录
相关文章
|
27天前
|
机器学习/深度学习 人工智能 算法
深入解析图神经网络:Graph Transformer的算法基础与工程实践
Graph Transformer是一种结合了Transformer自注意力机制与图神经网络(GNNs)特点的神经网络模型,专为处理图结构数据而设计。它通过改进的数据表示方法、自注意力机制、拉普拉斯位置编码、消息传递与聚合机制等核心技术,实现了对图中节点间关系信息的高效处理及长程依赖关系的捕捉,显著提升了图相关任务的性能。本文详细解析了Graph Transformer的技术原理、实现细节及应用场景,并通过图书推荐系统的实例,展示了其在实际问题解决中的强大能力。
140 30
|
2月前
|
机器学习/深度学习 自然语言处理 数据可视化
【由浅到深】从神经网络原理、Transformer模型演进、到代码工程实现
阅读这个文章可能的收获:理解AI、看懂模型和代码、能够自己搭建模型用于实际任务。
123 11
|
5月前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习+面经】Transformer 网络学习笔记
Transformer模型的核心概念、优缺点以及在多个领域的应用,并提供了针对Transformer架构的面试问题及答案。
215 2
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer 能代替图神经网络吗?
Transformer模型的革新性在于其自注意力机制,广泛应用于多种任务,包括非原始设计领域。近期研究专注于Transformer的推理能力,特别是在图神经网络(GNN)上下文中。
145 5
|
6月前
|
机器学习/深度学习 编解码 计算机视觉
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
【YOLOv8改进- Backbone主干】BoTNet:基于Transformer,结合自注意力机制和卷积神经网络的骨干网络
|
6月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于负相关误差函数的4集成BP神经网络matlab建模与仿真
**算法预览:** 图像显示无水印的2022a版MATLAB运行结果 **软件版本:** MATLAB 2022a **核心代码片段:** 省略展示 **理论概述:** NCL集成BP网络利用负相关提升泛化,结合多个弱模型减少错误关联。通过λ参数控制模型间负相关程度,λ>0增强集成效果,提高预测准确性和系统稳健性。
|
7月前
|
机器学习/深度学习 算法
基于RBF神经网络的自适应控制器simulink建模与仿真
使用MATLAB2022a,开发了一个基于RBF神经网络的自适应控制器Simulink S函数,进行了控制仿真。核心程序展示了RBF网络的权重和参数调整。测试结果显示了控制效果。RBF网络是一种三层前馈网络,利用高斯函数处理非线性系统。自适应控制器通过在线调整参数应对系统变化。网络学习分为自组织和有导师两个阶段,通过误差信号调整权重,确保系统稳定性。
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】26.卷积神经网络之AlexNet模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】26.卷积神经网络之AlexNet模型介绍及其Pytorch实现【含完整代码】
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。