2022年深度学习在时间序列预测和分类中的研究进展综述(下)

简介: 2022年深度学习在时间序列预测和分类中的研究进展综述

正文


时间序列表示


虽然Transformer 再预测方向上的效果并不好,但在创建有用的时间序列表示方面Transformer还是取得了许多进展。我认为这是时间序列深度学习领域中一个令人印象深刻的新领域,应该进行更深入的探索。


5.TS2Vec: Towards Universal Representation of Time Series (AAAI 2022)


https://arxiv.org/abs/2106.10466

TS2Vec是一个学习时间序列表示/嵌入的通用框架。这篇论文本身已经有些过时了,但它确实开始了时间序列表示学习论文的趋势。

对使用表示进行预测和异常检测进行评估,该模型优于许多模型,例如 Informer 和 Log Transformer。


6.Learning Latent Seasonal-Trend Representations for Time Series Forecasting(Neurips 2022)


https://openreview.net/forum?id=C9yUwd72yy

30.jpg

作者创建了一个模型(LAST),使用变分推理创建季节性和趋势的分离表示。

作者对他们的模型进行了下游预测任务的评价,他们通过在表示上添加一个预测器(见上图中的B)来做到这一点。它们还提供了有趣的图来显示表示的可视化。该模型在几个预测任务以及TS2Vec和成本方面都优于Autoformer。在一些预测任务上,它看起来也可能比上面提到的简单线性回归表现更好。31.png

尽管我仍然对那些只评估标准预测任务的模型持怀疑态度,但这个模型的确很亮眼,因为它关注的是表征而不是预测任务本身。如果我们看一下论文中展示的一些图表,可以看到模型似乎确实学会了区分季节性和趋势。不同数据集的可视化表示也嵌入到相同的空间中,如果它们显示出实质性的差异,那将是很有趣的。


7.CoST: Contrastive Learning of Disentangled Seasonal-Trend Representations for Time Series Forecasting (ICLR 2022)


https://openreview.net/forum?id=PilZY3omXV2

这是2022年早些时候在ICLR上发表的一篇论文,在学习季节和趋势表示方面与LaST非常相似。由于LaST在很大程度上已经取代了它的性能,这里就不做过多的描述了。但链接在上面供那些想要阅读的人阅读。


其他有趣的论文


8.Domain Adaptation for Time Series Forecasting via Attention Sharing(ICML 2022)


https://arxiv.org/abs/2102.06828
33.png

当缺乏训练数据时,预测对 DNN 来说是一项挑战。这篇论文对具有丰富数据的领域使用共享注意力层,然后对目标领域使用单独的模块。

它所提出的模型使用合成数据集和真实数据集进行评估。在合成环境中,测试了冷启动学习和少样本学习,发现他们的模型优于普通 Transformer 和 DeepAR。对于真实数据集采用了 Kaggle 零售数据集,该模型在这些实验中大大优于基线。

冷启动、少样本和有限学习是极其重要的主题,但很少有论文涉及时间序列。该模型为解决其中一些问题提供了重要的一步。也就是说他们可以在更多不同的有限现实世界数据集上进行评估,并与更多基准模型进行比较, 微调或正则化的好处在于可以对任何架构进行调整。


9.When to Intervene: Learning Optimal Intervention Policies for Critical Events (Neurips 2022)


https://openreview.net/pdf?id=rP9xfRSF4F

虽然这不是一篇“典型的”时间序列论文,但我选择将其列入这个列表,因为本文的重点是在机器发生故障之前找到进行干预的最佳时间。这被称为OTI或最佳时间干预。

评估OTI的问题之一是潜在生存分析的准确性(如果不正确,评估也会不正确)。作者根据两个静态阈值评估了他们的模型,发现它表现得很好,并且绘制了不同政策的预期表现和命中与失败的比率。

这是一个有趣的问题,作者提出了一个新颖的解决方案,Openreview的一位评论者指出:“如果有一个图表显示失败概率和预期干预时间之间的权衡,那么实验可能会更有说服力,这样人们就可以直观地看到这个权衡曲线的形状。”

下面还有一些相关论文,如果你有兴趣可以看看。


10.FiLM: Frequency improved Legendre Memory Model for Long-term Time Series Forecasting (Neurips 2022)


https://openreview.net/forum?id=zTQdHSQUQWc


11.Adjusting for Autocorrelated Errors in Neural Networks for Time Series (Neurips 2021)


12.Dynamic Sparse Network for Time Series Classification: Learning What to “See” (Neurips 2022)


https://openreview.net/forum?id=ZxOO5jfqSYw


最近的数据集/基准


最后就是数据集的测试的基准


Monash Time Series Forecasting Archive (Neurips 2021):该存档旨在形成不同时间序列数据集的“主列表”,并提供更权威的基准。该存储库包含 20 多个不同的数据集,涵盖多个行业,包括健康、零售、拼车、人口统计等等。

https://forecastingdata.org/

Subseasonal Forecasting Microsoft (2021):这是 Microsoft 公开发布的数据集,旨在促进使用机器学习来改进次季节预测(例如未来两到六周)。次季节预报有助于政府机构更好地为天气事件和农民的决定做准备。微软为该任务包含了几个基准模型,与其他方法相比,一般来说深度学习模型的表现相当差。最好的 DL 模型是一个简单的前馈模型,而 Informer 的表现非常糟糕。

https://www.microsoft.com/en-us/research/project/subseasonal-climate-forecasting/

Revisiting Time Series Outlier Detection:本文评述了许多现有的异常/异常值检测数据集,并提出了35个新的合成数据集和4个真实世界数据集用于基准测试。

https://openreview.net/forum?id=r8IvOsnHchr


开源的时序预测框架FF


Flow Forecast是一个开源的时序预测框架,它包含了以下模型:

Vanilla LSTM (LSTM)、SimpleTransformer、Multi-Head Attention、Transformer with a linear decoder、DARNN、Transformer XL、Informer、DeepAR、DSANet 、SimpleLinearModel等等。

这是一个学习使用深度学习进行时间预测的很好的模型代码来源,有兴趣的可以看看。
https://github.com/AIStream-Peelout/flow-forecast


总结


在过去的两年里,我们已经看到了Transformer在时间序列预测中的兴起和可能的衰落和时间序列嵌入方法的兴起,以及异常检测和分类方面的额外突破。

但是对于深度学习的时间序列来说:可解释性、可视化和基准测试方法还是有所欠缺,因为模型在哪里执行,在哪里出现性能故障是非常重要的。此外,更多形式的正则化、预处理和迁移学习来提高性能可能会在未来中出现。

也许Transformer对时间序列预测有好处(也许不是),就像VIT那样如果没有Patch的出现Transformer可能还会被认为不行,我们也将继续关注Transformer在时间序列的发展或者替代。

相关文章
|
2天前
|
机器学习/深度学习 人工智能 边缘计算
基于深度学习的图像识别优化策略研究
【5月更文挑战第17天】 在当前的信息时代,图像识别技术作为人工智能领域的一个重要分支,已经广泛应用于医疗诊断、自动驾驶、安防监控等多个行业。随着技术的不断进步,深度学习模型在图像识别任务中取得了显著的成果。然而,随之而来的是对计算资源的大量需求以及实时处理的挑战。本文针对现有深度学习模型在图像识别任务中的资源消耗和响应速度问题,提出了一种结合模型压缩与知识蒸馏的优化策略。通过深入分析模型结构与参数特性,实现在保持高准确率的同时降低模型复杂度,提高运算效率。本研究不仅对推动高效图像识别技术的发展具有重要意义,同时也为其他计算密集型应用提供了可行的优化思路。
|
4天前
|
机器学习/深度学习 边缘计算 算法
基于深度学习的图像识别优化策略研究
【5月更文挑战第8天】 本研究旨在探索提高深度神经网络在图像识别任务中性能的有效策略。通过分析现有模型的局限性,本文提出了一系列优化技术,包括数据增强、网络结构调整和损失函数改进。实验结果表明,这些策略显著提升了模型的准确率和泛化能力,尤其在处理高复杂度图像时表现突出。此外,针对计算资源消耗问题,我们还探讨了模型压缩和加速方法,以期实现高效率的实时图像识别应用。
|
4天前
|
机器学习/深度学习 边缘计算 算法
基于深度学习的图像识别优化策略研究
【5月更文挑战第7天】 在计算机视觉领域,图像识别作为核心任务之一,其性能的提升一直是研究的热点。随着深度学习技术的不断发展,卷积神经网络(CNN)已成为图像识别的主要工具。然而,模型复杂度和计算资源的大量需求限制了其在实际应用中的推广。本文围绕减少模型参数、提高运算效率和保持识别准确率等方面展开,提出了一种结合深度可分离卷积与注意力机制的图像识别优化策略。通过实验验证,该策略在多个标准数据集上取得了与传统卷积网络相媲美的结果,同时显著降低了参数数量和计算成本。
30 4
|
4天前
|
机器学习/深度学习 边缘计算 计算机视觉
基于深度学习的图像识别优化技术研究
【5月更文挑战第5天】 在当前的计算机视觉领域,图像识别技术已取得显著进展,尤其是深度学习方法的广泛应用。然而,随着数据量的日益增加和模型复杂度的提升,如何提高图像识别的效率与准确性成为新的挑战。本文提出了一种基于改进卷积神经网络(CNN)的图像识别优化技术,旨在减少模型参数量、加速推理过程,并保持甚至提升识别精度。通过引入深度可分离卷积、注意力机制以及量化剪枝策略,该技术在多个标准数据集上显示出了卓越的性能。
|
4天前
|
机器学习/深度学习 算法 计算机视觉
基于深度学习的图像识别优化策略研究
【4月更文挑战第30天】 随着人工智能技术的飞速发展,图像识别作为其重要应用之一,在多个领域内扮演着关键角色。然而,传统的图像识别方法面临着效率低下、准确性有限等问题。本文旨在探讨并提出一种基于深度学习的图像识别优化策略,通过改进算法结构和训练过程来提高识别精度与速度。我们采用了卷积神经网络(CNN)模型,结合最新的正则化技术和数据增强方法,显著提升了模型的泛化能力。此外,针对计算资源的高效利用,我们引入了混合精度训练和模型剪枝技术,以减少模型复杂度和加速推理过程。实验结果表明,所提出的优化策略在保持甚至提高识别准确率的同时,大幅降低了模型的运行时间和资源消耗。
|
4天前
|
机器学习/深度学习 算法 数据可视化
MATLAB基于深度学习U-net神经网络模型的能谱CT的基物质分解技术研究
MATLAB基于深度学习U-net神经网络模型的能谱CT的基物质分解技术研究
|
4天前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别在自动驾驶系统中的应用研究
【4月更文挑战第28天】 随着人工智能技术的突飞猛进,深度学习在图像识别领域的应用已逐渐成熟,并在自动驾驶系统中扮演着至关重要的角色。本文聚焦于探讨深度学习模型如何优化自动驾驶车辆的图像识别过程,以及这些技术如何提高系统的整体性能和安全性。文中首先介绍了深度学习在图像处理中的基础理论,随后详细分析了卷积神经网络(CNN)在车辆环境感知中的应用,并提出了一种新型的融合算法,该算法能更有效地处理复杂环境下的图像数据。通过实验验证,本研究所提出的模型在多个公开数据集上表现出了优越的识别精度和实时性,为未来自动驾驶技术的发展提供了有价值的参考。
|
4天前
|
机器学习/深度学习 计算机视觉 异构计算
基于深度学习的图像识别优化策略研究
【4月更文挑战第28天】随着人工智能技术的飞速发展,深度学习在图像识别领域取得了显著成就。然而,实时性和准确性仍是挑战焦点。本文针对现有深度学习模型在处理高分辨率图像时面临的计算资源消耗大、推理速度慢等问题,提出了一种结合模型压缩与知识蒸馏的优化策略。通过量化分析、剪枝和蒸馏技术的结合使用,实现了模型性能与计算效率的平衡。实验结果表明,该策略能够在保持较高识别准确率的同时,显著减少模型参数量和提高处理速度。
|
4天前
|
机器学习/深度学习 编解码 算法
R语言用FNN-LSTM假近邻长短期记忆人工神经网络模型进行时间序列深度学习预测4个案例
R语言用FNN-LSTM假近邻长短期记忆人工神经网络模型进行时间序列深度学习预测4个案例
|
4天前
|
机器学习/深度学习 数据可视化 网络架构
Matlab用深度学习循环神经网络RNN长短期记忆LSTM进行波形时间序列数据预测
Matlab用深度学习循环神经网络RNN长短期记忆LSTM进行波形时间序列数据预测