谷歌的时间序列预测的基础模型TimesFM详解和对比测试

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 在本文中,我们将介绍模型架构、训练,并进行实际预测案例研究。将对TimesFM的预测能力进行分析,并将该模型与统计和机器学习模型进行对比。

TimesFM是一个为时间序列数据量身定制的大型预训练模型——一个无需大量再训练就能提供准确预测的模型。TimesFM有2亿参数,并在1000亿真实世界时间点上进行了训练。可以允许额外的协变量作为特征。

在本文中,我们将介绍模型架构、训练,并进行实际预测案例研究。将对TimesFM的预测能力进行分析,并将该模型与统计和机器学习模型进行对比。

TimesFM思路

用于时间序列预测的基础模型应能够适应不同的上下文和预测长度,同时具备足够的能力来编码来自广泛预训练数据集的所有模式。所以架构的住要办函如下内容:

1、分块 — 数据的分解

这个模型通过一个称为“分块”的过程,类似地处理时间序列数据。与一次性处理整个序列不同,它将数据分成更小、更易管理的片段,称为分块。这种方法不仅加快了模型的处理速度,还帮助它专注于数据中更小、更详细的趋势。

2、仅解码器架构

这个模型是在仅解码器模式下训练的。也就是说给定一系列输入分块,通过模型优化预测下一个分块作为所有过去分块的函数。类似于大型语言模型(LLMs),这可以在整个上下文窗口上并行完成,自动实现在观察到不同数量的输入分块后的未来预测。

3、生成较长的预测输出分块

在大型语言模型(LLMs)中,输出通常是以自回归方式逐个生成的。但是对于长期预测,一次性预测整个预测期可以比多步自回归解码获得更好的准确性。这种直接预测方法在预测期长度未知时(如零样本预测)尤为挑战,这是模型的主要关注点。

为了解决这个问题,作者建议通过使用比输入分块更长的输出分块来进行预测。例如,如果输入分块长度为32,输出分块长度为128,那么模型的训练方式如下:它使用前32个时间点来预测接下来的128个时间步,使用前64个时间点来预测第65到192个时间步,使用前96个时间点来预测第97到224个时间步,依此类推。

在推断时,如果模型接收到长度为256的新时间序列,并被要求预测接下来的256个时间步,它首先会预测第257到384个时间步。然后,它将使用初始的256长度输入以及生成的输出来预测第385到512个时间步。相比之下,输出分块长度等于输入分块长度的模型需要8个自回归步骤来完成相同的任务,而论文的方法只需要2个步骤。

但是这里有一个问题如果输出分块长度过长,处理短于输出分块长度的时间序列(如预训练数据中的月度或年度时间序列)会变得困难。

TimesFM模型架构

1、输入

  • 时间序列经过预处理,被分割成连续的非重叠分块。
  • 分块通过残差块处理,转换为大小为模型维度(model_dim)的向量。
  • 二进制掩码也随输入一起提供给Transformer。二进制掩码用于表示相应的数据点是否应该被考虑(0)或忽略(1)。
  • 残差块本质上是一个多层感知机块,具有一个带有跳跃连接的隐藏层。

2、Transformer架构

这个基础模型采用了堆叠Transformer的方法,每个Transformer层由两个主要组件组成:多头自注意力机制和前馈神经网络。

多头自注意力机制:每个Transformer层使用多头自注意力机制,允许模型同时关注输入序列的不同部分。这意味着对于给定的输出标记,模型可以同时考虑前面标记的多个方面,增强其捕捉数据中复杂模式和依赖关系的能力。

前馈网络:在自注意力机制之后,每个层对序列中的每个位置独立应用一个前馈网络。这进一步处理了注意力的信息,并使模型能够学习更高级别的表示。

因果注意力:在时间序列预测的背景下,作者实现了因果注意力。这确保每个输出标记只能关注其前面的标记。通过这样做,模型遵循数据的时间顺序,防止来自未来标记的信息(在预测时不应该可用)影响当前预测。

层堆叠:通过堆叠多个Transformer层,模型可以逐步构建输入数据的更抽象表示。每一层都会优化前几层学到的表示,使模型能够捕捉不同时间跨度上的复杂模式。

这包括两个关键超参数;

  • 模型维度(Model Dimension):确定每个Transformer层中表示空间的大小。
  • 注意力头的数量(Number of Attention Heads):指定模型可以同时关注输入的不同方面的数量。

如上所示的TimesFM体系结构采用特定长度的输入时间序列,并将其分解为多个输入片段。然后通过模型定义中定义的残差块将每个patch处理成一个向量,以匹配Transformer层的模型尺寸。然后将向量添加到位置编码中。具有位置编码的向量被发送到堆叠的Transformer层中。

SA是指自注意力,也就是是多头因果注意力,FFN是指全连接层。输出令牌通过一个残差块映射到一个大小为output_patch_len的输出,它构成了模型最后一个输入patch之后的时间窗口的预测。

3、输出层

输出层的任务是将输出标记映射到预测。模型采用了仅解码器模式进行训练,这意味着每个输出标记应该预测跟随最后输入分块的时间序列部分。与许多其他时间序列预测模型不同,输入分块长度不必等于输出分块长度。这意味着模型可以基于输入分块的信息预测时间序列的较大部分。

4、损失函数

研究使用的损失函数是均方误差(MSE)。由于这项工作围绕点预测展开,因此使用MSE来计算训练损失是合理的。

5、训练

模型使用标准的小批量梯度下降方法进行仅解码器的训练。该方法为每个时间序列和跨多个时间序列处理时间窗口。

训练使用的掩码策略是一个独特的特性。对于批处理中的每个时间序列,随机选择一个介于0和p−1之间的数字r,其中p是分块长度。创建一个掩码向量m1:r,其中m1设置为1,其余为零。这样可以屏蔽掉第一个输入分块的一部分。这种策略确保模型能够处理从1到最大上下文长度的输入上下文长度。以下面的相关示例可以很好地解释这一点:

假设最大上下文长度为512,分块长度p为32,r=4。在第一个分块后,输出预测被优化为使用32-4=28个时间点后进行预测。然后,下一个分块被优化为28+32个时间点后进行预测,依此类推。对所有这些r值重复此过程确保了模型可以处理所有长达512的上下文长度。

训练好的模型随后可以使用自回归解码生成任何时段的预测。

训练数据集

作者使用多样化的数据集对TimesFM模型进行预训练,以确保捕捉广泛的时间模式。他们从多个来源获取数据,包括:

  • Google Trends:提供了超过22,000个查询在15年(2007年至2022年)的小时、日和周粒度的搜索兴趣数据,总共约50亿个时间点。
  • Wiki Pageviews:包括来自2012年到2023年的维基百科页面的每小时查看次数。这些数据集被聚合到日、周和月的级别,贡献了约300亿个时间点。

除了真实世界的数据外,作者还生成了合成数据,使用ARMA模型、季节模式和趋势生成了300万条合成时间序列,每条时间序列有2048个时间点。

其他真实世界数据源包括M4数据集、每小时和15分钟的电力数据以及小时交通数据。M4数据集提供了约10万条时间序列,而交通和电力数据提供了大量时间序列,进一步增强了模型的鲁棒性。

对于训练策略,作者创建了真实数据集和合成数据集的平衡组合,确保不同粒度(每小时、每天、每周、每月)的平等表示。训练批次从这些粒度中均匀取样,最小时间序列长度为256个时间点以保持一致性。时间序列按上下文均值和标准差进行缩放以标准化输入,每批包括15个主要时间序列。这种全面的方法确保了TimesFM模型为处理不同粒度的各种预测场景做好了充分准备。

代码示例对比

我们将介绍如何使用TimesFM模型进行预测。然后还会比较该模型与统计(AutoETS), ML(随机森林,XGBoost, LGBM)和其他的基础模型(TimeGPT)的性能。

本研究中使用的数据集取自Kaggle -每月黄金价格(1979-2021)- 18个不同国家的历史黄金价格

读取数据

 import pandas as pd
 df = pd.read_csv("GoldPrices.csv")
 df['Date'] = pd.to_datetime(df['Date'])
 df = df.set_index('Date').resample('MS').mean()
 df = df.reset_index() # Reset index to have 'Date' as a column again
 print(df.head())

可视化

 #Let's Visualise the Dataset
 import matplotlib.pyplot as plt
 import seaborn as sns
 sns.set(style="darkgrid")
 plt.figure(figsize=(10, 6))
 sns.lineplot(x="Date", y='India(INR)', data=df, color='green')
 plt.title('Monthly Gold Prices Over Time')
 plt.xlabel('Date')
 plt.ylabel('Gold Price in INR')
 plt.show()

对数据进行季节性分解,检查这里的趋势和季节性模式。

 df.set_index("Date", inplace=True)
 from statsmodels.tsa.seasonal import seasonal_decompose

 result = seasonal_decompose(df['India(INR)'])

 fig, (ax1, ax2, ax3, ax4) = plt.subplots(4, 1, figsize=(10, 12))

 result.observed.plot(ax=ax1, color='green')
 ax1.set_ylabel('Observed')

 result.trend.plot(ax=ax2, color='green')
 ax2.set_ylabel('Trend')

 result.seasonal.plot(ax=ax3, color='green')
 ax3.set_ylabel('Seasonal')

 result.resid.plot(ax=ax4, color='green')
 ax4.set_ylabel('Residual')

 plt.tight_layout()
 plt.show()

 df.reset_index(inplace=True)

TimesFM期望数据在单变量时间序列数据中有三个不同的列。这些都是:

unique_id: unique_id列用于标识数据集中的不同时间序列。—可以是字符串、整数或分类类型。

它表示数据中每个时间序列的标识符。这在处理同一数据集中的多个时间序列时特别有用。

ds(日期戳):ds列表示时间序列数据的时间部分。-它应该是pandas可以解释为日期或时间戳的格式。

理想情况下,日期格式应为YYYY-MM-DD,时间戳格式应为YYYY-MM-DD HH:MM:SS。这对于MLForecast理解数据的时间方面至关重要。

y(目标变量):y想要预测的实际值。-应该是数字。这是想要预测的测量或数量。

 df = pd.DataFrame({'unique_id':[1]*len(df),'ds': df["Date"], "y":df['India(INR)']})

然后进行训练-测试分割,我们将使用128个数据点用于训练,24个用于测试。

 train_df = df[df['ds'] <= '31-07-2019']
 test_df = df[df['ds'] > '31-07-2019']

1、统计预测

 #install statsforecast
 !pip install statsforecast

 import pandas as pd
 from statsforecast import StatsForecast
 from statsforecast.models import AutoARIMA, AutoETS

 # Define the AutoARIMA model
 autoarima = AutoARIMA(season_length=12)  # Annual seasonality for monthly data

 # Define the AutoETS model
 autoets = AutoETS(season_length=12)  # Annual seasonality for monthly data

 # Create StatsForecast object with AutoARIMA
 statforecast = StatsForecast(df=train_df,
                          models=[autoarima, autoets],
                          freq='MS',
                          n_jobs=-1)

 # Fit the model
 statforecast.fit()

 # Generate forecasts
 sf_forecast = statforecast.forecast(h=24)  # Forecasting for 24 periods

这些结果存储在sf_forecast中,我们后面展示

2、机器学习方法预测

 #install mlforecast
 !pip install mlforecast
 from mlforecast import MLForecast
 from mlforecast.target_transforms import AutoDifferences
 from numba import njit
 import lightgbm as lgb
 import xgboost as xgb
 from sklearn.ensemble import RandomForestRegressor
 from statsmodels.tsa.seasonal import seasonal_decompose
 from mlforecast import MLForecast
 from mlforecast.lag_transforms import (
     RollingMean, RollingStd, RollingMin, RollingMax, RollingQuantile,
     SeasonalRollingMean, SeasonalRollingStd, SeasonalRollingMin,
     SeasonalRollingMax, SeasonalRollingQuantile,
     ExpandingMean
 )

 models = [lgb.LGBMRegressor(verbosity=-1),  # LightGBM regressor with verbosity turned off
     xgb.XGBRegressor(),  # XGBoost regressor with default parameters
     RandomForestRegressor(random_state=0),  # Random Forest regressor with fixed random state for reproducibility
 ]
 fcst = MLForecast(
     models=models,  # List of models to be used for forecasting
     freq='MS',  # Monthly frequency, starting at the beginning of each month
     lags=[1,3,5,7,12],  # Lag features: values from 1, 3, 5, 7, and 12 time steps ago
     lag_transforms={
         1: [  # Transformations applied to lag 1
             RollingMean(window_size=3),  # Rolling mean with a window of 3 time steps
             RollingStd(window_size=3),  # Rolling standard deviation with a window of 3 time steps
             RollingMin(window_size=3),  # Rolling minimum with a window of 3 time steps
             RollingMax(window_size=3),  # Rolling maximum with a window of 3 time steps
             RollingQuantile(p=0.5, window_size=3),  # Rolling median (50th percentile) with a window of 3 time steps
             ExpandingMean()  # Expanding mean (mean of all previous values)
         ],
         6:[  # Transformations applied to lag 6
             RollingMean(window_size=6),  # Rolling mean with a window of 6 time steps
             RollingStd(window_size=6),  # Rolling standard deviation with a window of 6 time steps
             RollingMin(window_size=6),  # Rolling minimum with a window of 6 time steps
             RollingMax(window_size=6),  # Rolling maximum with a window of 6 time steps
             RollingQuantile(p=0.5, window_size=6),  # Rolling median (50th percentile) with a window of 6 time steps
         ],
         12: [  # Transformations applied to lag 12 (likely for yearly seasonality)
             SeasonalRollingMean(season_length=12, window_size=3),  # Seasonal rolling mean with 12-month seasonality and 3-month window
             SeasonalRollingStd(season_length=12, window_size=3),  # Seasonal rolling standard deviation with 12-month seasonality and 3-month window
             SeasonalRollingMin(season_length=12, window_size=3),  # Seasonal rolling minimum with 12-month seasonality and 3-month window
             SeasonalRollingMax(season_length=12, window_size=3),  # Seasonal rolling maximum with 12-month seasonality and 3-month window
             SeasonalRollingQuantile(p=0.5, season_length=12, window_size=3)  # Seasonal rolling median with 12-month seasonality and 3-month window
         ]
     },
     date_features=['year', 'month', 'quarter'],  # Extract year, month, and quarter from the date as features
     target_transforms=[AutoDifferences(max_diffs=3)])


 fcst.fit(train_df)
 ml_forecast = fcst.predict(len(test_df))

结果保存到ml_forecast

3、TimeGPT

 !pip install nixtla
 from nixtla import NixtlaClient
 # Get your API Key at dashboard.nixtla.io
 #Instantiate the NixtlaClient
 nixtla_client = NixtlaClient(api_key = 'Your_API_Key')
 #Get the forecast
 timegpt_forecast = nixtla_client.forecast(df = train_df, h=24, freq="M")

虽然TimeGPT已经被认为是一个笑话,但是我们还是要做下,如果TimesFM不如TimeGPT那说明他没有存在的意义。结果保存到timegpt_forecast

4、TimesFM

最后就是TimesFM模型,这是我们在这项研究中的主要兴趣点。

 !pip install timesfm #You might need to restart the kernal to have this installed in your w

 # Initialize the TimesFM model with specified parameters
 tfm = timesfm.TimesFm(
     context_len=128,       # Length of the context window for the model
     horizon_len=24,        # Forecasting horizon length
     input_patch_len=32,    # Length of input patches
     output_patch_len=128,  # Length of output patches
     num_layers=20,         
     model_dims=1280,       
 )

 # Load the pretrained model checkpoint
 tfm.load_from_checkpoint(repo_id="google/timesfm-1.0-200m")

 # Generate forecasts using the TimesFM model on the given DataFrame
 timesfm_forecast = tfm.forecast_on_df(
     inputs=train_df,       # Input DataFrame containing the time-series data for training
     freq="MS",             # Frequency of the time-series data (e.g., monthly start)
     value_name="y",        # Name of the column containing the values to be forecasted
     num_jobs=-1,           # Number of parallel jobs to use for forecasting (-1 uses all available cores)
 )
 timesfm_forecast = timesfm_forecast[["ds","timesfm"]]

这里面有一些超参数,应该还有优化的空间,不过我们先以这个进行测试。

最后我们还要把所有的日期转换成相同的格式,以解决格式不一致的问题

 # Assuming the DataFrames have a common column 'ds' for the dates
 # Convert 'ds' to datetime in all DataFrames if necessary
 sf_forecast['ds'] = pd.to_datetime(sf_forecast['ds'])
 ml_forecast['ds'] = pd.to_datetime(ml_forecast['ds'])
 timegpt_forecast['ds'] = pd.to_datetime(timegpt_forecast['ds'])
 timesfm_forecast['ds'] = pd.to_datetime(timesfm_forecast['ds'])

 # Now perform the merges
 merged_fcst = pd.merge(sf_forecast, ml_forecast, on='ds')
 merged_fcst = pd.merge(merged_fcst, timegpt_forecast, on='ds')
 merged_fcst = pd.merge(merged_fcst, timesfm_forecast, on='ds')


 #Adding the actuals to the dataframe from test_df
 merged_fcst = pd.merge(merged_fcst, test_df, on='ds')

 #Keep only relevant columns
 merged_fcst = merged_fcst[["unique_id", "ds", "AutoARIMA", "AutoETS", "LGBMRegressor", "XGBRegressor", "RandomForestRegressor", "TimeGPT", "timesfm"]]

所有的预测的结果如下:

最后就是评估我们的结果

 import numpy as np
 def calculate_error_metrics(actual_values, predicted_values):
     actual_values = np.array(actual_values)
     predicted_values = np.array(predicted_values)

     metrics_dict = {
         'MAE': np.mean(np.abs(actual_values - predicted_values)),
         'RMSE': np.sqrt(np.mean((actual_values - predicted_values)**2)),
         'MAPE': np.mean(np.abs((actual_values - predicted_values) / actual_values)) * 100
     }

     result_df = pd.DataFrame(list(metrics_dict.items()), columns=['Metric', 'Value'])
     return result_df

 # Extract 'Weekly_Sales' as actuals
 actuals = merged_fcst['y']

 error_metrics_dict = {}


 for col in merged_fcst.columns[2:-1]:  # Exclude 'Weekly_Sales'
     predicted_values = merged_fcst[col]
     error_metrics_dict[col] = calculate_error_metrics(actuals, predicted_values)['Value'].values  # Extracting 'Value' column


 error_metrics_df = pd.DataFrame(error_metrics_dict)
 error_metrics_df.insert(0, 'Metric', calculate_error_metrics(actuals, actuals)['Metric'].values)  # Adding 'Metric' column


 print(error_metrics_df)

可以看出,在MAE、RMSE和MAPE的基础上进行比较,TimesFM是AutoETS之后最好的模型。

总结

TimesFM提供了一种可靠的时间序列基础模型方法,可以被考虑为我们工具箱中的一部分(无脑预测一波看看效果,作为基类模型对比)。TimesFM采用了仅解码器的Transformer架构,这与许多现有时间序列模型中使用的典型编码器-解码器框架形成对比。这种设计选择简化了模型,同时在预测任务中保持了高性能。正如研究所示,与另一个成功的时间序列基础模型——TimeGPT相比,TimesFM在这个实验案例中表现更好。

https://avoid.overfit.cn/post/99697006d1334ee49de3b5d95196b3c1

作者:Satyajit Chaudhuri

目录
相关文章
|
1月前
|
编解码 人工智能 自然语言处理
迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试
【10月更文挑战第23天】Oryx 是一种新型多模态架构,能够灵活处理各种分辨率的图像和视频数据,无需标准化。其核心创新包括任意分辨率编码和动态压缩器模块,适用于从微小图标到长时间视频的多种应用场景。Oryx 在长上下文检索和空间感知数据方面表现出色,并且已开源,为多模态研究提供了强大工具。然而,选择合适的分辨率和压缩率仍需谨慎,以平衡处理效率和识别精度。论文地址:https://www.nature.com/articles/s41467-024-52417-z
49 2
|
2月前
|
测试技术
谈谈【软件测试的基础知识,基础模型】
谈谈【软件测试的基础知识,基础模型】
29 5
|
2月前
|
敏捷开发 测试技术
开发模型(瀑布、螺旋、scrum) 和 测试模型(V、W)、增量和迭代、敏捷(思想)及敏捷开发 scrum
文章详细介绍了软件开发过程中的不同开发模型(瀑布、螺旋、Scrum)和测试模型(V模型、W模型),以及增量和迭代的概念,最后阐述了敏捷思想及其在敏捷开发(如Scrum)中的应用。
127 0
开发模型(瀑布、螺旋、scrum) 和 测试模型(V、W)、增量和迭代、敏捷(思想)及敏捷开发 scrum
|
2月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
52 0
|
2月前
|
机器学习/深度学习 人工智能 并行计算
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
41 0
|
3月前
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
|
4月前
|
机器学习/深度学习 数据采集 测试技术
利用Python实现简单的机器学习模型软件测试的艺术与科学:探索自动化测试框架的奥秘
【8月更文挑战第27天】在本文中,我们将一起探索如何通过Python编程语言创建一个简单的机器学习模型。我们将使用scikit-learn库中的线性回归模型作为示例,并通过一个实际的数据集来训练我们的模型。文章将详细解释每一步的过程,包括数据预处理、模型训练和预测结果的评估。最后,我们会用代码块展示整个过程,确保读者能够跟随步骤实践并理解每个阶段的重要性。
|
3天前
|
监控 JavaScript 测试技术
postman接口测试工具详解
Postman是一个功能强大且易于使用的API测试工具。通过详细的介绍和实际示例,本文展示了Postman在API测试中的各种应用。无论是简单的请求发送,还是复杂的自动化测试和持续集成,Postman都提供了丰富的功能来满足用户的需求。希望本文能帮助您更好地理解和使用Postman,提高API测试的效率和质量。
27 11
|
1月前
|
JSON Java 测试技术
SpringCloud2023实战之接口服务测试工具SpringBootTest
SpringBootTest同时集成了JUnit Jupiter、AssertJ、Hamcrest测试辅助库,使得更容易编写但愿测试代码。
60 3
|
2月前
|
JSON 算法 数据可视化
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
这篇文章是关于如何通过算法接口返回的目标检测结果来计算性能指标的笔记。它涵盖了任务描述、指标分析(包括TP、FP、FN、TN、精准率和召回率),接口处理,数据集处理,以及如何使用实用工具进行文件操作和数据可视化。文章还提供了一些Python代码示例,用于处理图像文件、转换数据格式以及计算目标检测的性能指标。
74 0
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
下一篇
DataWorks