3个用于时间序列数据整理的Pandas函数

简介: 本文将演示 3 个处理时间序列数据最常用的 pandas 操作

首先我们要导入需要的库:

 importpandasaspd
 importnumpyasnp
 importmatplotlib.pyplotasplt

本文使用的数据集非常简单。它只有 1 列,名为 VPact (mbar),表示气候中的气压。该数据集的索引是日期时间类型:

我们也可以应用 pd.to_datetime(df.index) 来制作日期时间类型的索引。

本地化时区

✏️本地化是什么意思?

本地化意味着将给定的时区更改为目标或所需的时区。这样做不会改变数据集中的任何内容,只是日期和时间将显示在所选择的时区中。

✏️ 为什么需要它?

如果你拿到的时间序列数据集是UTC格式的,而你的客户要求你根据例如美洲时区来处理气候数据。你就需要在将其提供给模型之前对其进行更改,因为如果您不这样做模型将生成的结果将全部基于UTC。

✏️ 如何修改

只需要更改数据集的索引部分

 df.index=df.index.tz_localize("UTC")

看看下面的结果:

数据集的索引部分发生变化。日期和时间和以前一样,但现在它在最后显示+00:00。这意味着pandas现在将索引识别为UTC时区的时间实例。

现在我们可以专注于将UTC时区转换为我们想要的时区。

 df.index=df.index.tz_convert("Asia/Qatar")  

现在我们的时区已经改变到卡塔尔时区+03:00。

时间窗口重采样

在本节中将研究如何根据时间间隔来预测时间序列数据。

✏️这是什么意思?

这意味着收集一定范围的目标值(在本例中为蒸气压读数)并以某种方式概括它们,以便我们可以大致了解数据集中的趋势。我们可以通过取平均值、最大值、最小值等来概括假设一次读数的组。这里我们将5 个读数分成一组,也就是我们所说的时间窗口

✏️ 我们为什么需要它?

我将用一个例子来解释这一点。假设客户的问题是:

“我给你我的气候传感器读数,每 10 分钟获取一次,我希望你告诉我每天对蒸气压的预测。也就是说,我想要对未来每一天的预测。”

现在你可能会说,这有什么大不了的?我们手上有一些读数,每 10 分钟读取一次,我们只需要预测每天的气压。

在我们开始工作之前,让我们先对器进行可视化:

 fig, ax=plt.subplots(figsize=(15, 6))
 df['VPact (mbar)'].plot(ax=ax,xlabel='Time', ylabel='VPact (mbar)')

✏️ 如何重采样

现在,我们重新采样数据集,并使其成为汇总数据的单行/记录。

 resampled_df=df["VPact (mbar)"].resample("1D")

这可能看起来很奇怪,但它返回的是一个对象而不是一个DF。如果我们试图运行resampled_df.head(),它会抛出一个错误。这是因为虽然已经将它重新采样为每行一天,但我们还没有告诉它应该如何聚合一天窗口中出现的所有读数。

聚合的操作包括:最大值、最小值、平均值、众数?本文中我们取平均值。

 resampled_df.mean()
 
 # OUTPUT:
 # Date Time
 # 2010-01-01 00:00:00+03:00     4.386905
 # 2010-01-02 00:00:00+03:00     3.954861
 # 2010-01-03 00:00:00+03:00     5.435417
 # 2010-01-04 00:00:00+03:00     5.129375
 # 2010-01-05 00:00:00+03:00    10.372361
 # Freq: D, Name: VPact (mbar), Length: 365, dtype: float64

我们还需要将其转换为df。

 resampled_df = resampled_df.mean().to_frame()

时间索引从每分钟读数变为每天。我们再次可视化

 fig, ax = plt.subplots(figsize=(15, 6))
 resampled_df['VPact (mbar)'].plot(ax=ax,xlabel='Time', ylabel='VPact (mbar)')

时间间隔小了很多,显示的也是每天的数据

填补时间空白

本节中将介绍如何填充数据中的时间间隔。

✏️这是什么意思?

时间序列数据由是一段连续的时间产生的数据组成。如果在数据集中有一些缺失的数据会就会在时间间隔上产生裂缝

✏️为什么需要它?

如果给模型提供有空白的数据,模型会立即崩溃,这是我们不想看到的。

让我们假设我们的数据集有一些空值序列。数据集看起来像这样:

 fig, ax=plt.subplots(figsize=(15, 6))
 df_with_gap['VPact (mbar)'].plot(ax=ax,xlabel='Time', ylabel='VPact (mbar)')

✏️ 如何填充空白

我们尝试各种各样的值来填补这一空白。但是没有一个是标准,因为所有的填充值都只是对实际值的广义猜测。

在这个的例子中,我只展示其中一种填充方法,其他的方法都与其类似。这里将使用正向填充法。这个方法遍历我数据集,并获取它在遇到空白之前读取的最后一个值,并用最后一个值填充整个空白。这个方法虽然简单,但在很多情况下还是有用的。

 df_with_gap=df_with_gap['VPact (mbar)'].fillna(method="ffill")

我们还将它转换成一个DF。

 df_with_gap=df_with_gap.to_frame()

现在让我们看看数据集。应该看一条完整的线,并且不包含空白的空间。

 fig, ax=plt.subplots(figsize=(15, 6))
 df_with_gap['VPact (mbar)'].plot(ax=ax,xlabel='Time', ylabel='VPact (mbar)')

缺失的数据现在已经被补齐了。

总结

以上就是3个常用的时间数据处理的操作,希望对你有帮助。

本文源代码

https://avoid.overfit.cn/post/3ea9318754fc4bcd83bd3e0bd6ea243f

作者:Muhammad Hammad Hassan

目录
相关文章
|
2月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
444 0
|
7月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
694 13
Pandas数据合并:10种高效连接技巧与常见问题
|
10月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
592 100
Pandas高级数据处理:数据流式计算
|
10月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
289 31
|
10月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
237 12
|
10月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
226 17
|
10月前
|
数据采集 存储 数据可视化
Pandas高级数据处理:数据报告生成
Pandas 是数据分析领域不可或缺的工具,支持多种文件格式的数据读取与写入、数据清洗、筛选与过滤。本文从基础到高级,介绍如何使用 Pandas 进行数据处理,并解决常见问题和报错,如数据类型不一致、时间格式解析错误、内存不足等。最后,通过数据汇总、可视化和报告导出,生成专业的数据报告,帮助你在实际工作中更加高效地处理数据。
299 8
|
10月前
|
数据采集 并行计算 数据可视化
Pandas高级数据处理:数据报告生成实战指南
数据报告生成面临数据质量、计算性能、呈现形式和自动化等核心挑战。常见问题包括缺失值导致统计失真、内存溢出及可视化困难。解决方案涵盖数据清洗、分块处理、安全绘图模板等。通过模块化设计、异常处理机制和性能优化策略,如使用`category`类型、并行计算等,可大幅提升效率。最佳实践建议建立数据质量检查清单、版本控制和自动化测试框架,确保系统具备自适应能力,提升报告生成效率300%以上。
275 12
|
11月前
|
数据采集 供应链 数据可视化
Pandas数据应用:供应链优化
在当今全球化的商业环境中,供应链管理日益复杂。Pandas作为Python的强大数据分析库,能有效处理库存、物流和生产计划中的大量数据。本文介绍如何用Pandas优化供应链,涵盖数据导入、清洗、类型转换、分析与可视化,并探讨常见问题及解决方案,帮助读者在供应链项目中更加得心应手。
234 21
|
11月前
|
机器学习/深度学习 搜索推荐 数据挖掘
Pandas数据应用:广告效果评估
在数字化营销中,广告效果评估至关重要。Pandas作为Python的强大数据分析库,在处理广告数据时表现出色。本文介绍如何使用Pandas进行广告效果评估,涵盖数据读取、预览、缺失值处理、数据类型转换及常见报错解决方法,并通过代码案例详细解释。掌握这些技能,可为深入分析广告效果打下坚实基础。
235 17