在Pandas中通过时间频率来汇总数据的三种常用方法

简介: 在Pandas中通过时间频率来汇总数据的三种常用方法

当我们的数据涉及日期和时间时,分析随时间变化变得非常重要。Pandas提供了一种方便的方法,可以按不同的基于时间的间隔(如分钟、小时、天、周、月、季度或年)对时间序列数据进行分组。

比如进行数据分析时,我们需要将日数据转换为月数据,年数据等。

87dee3803595a4197c45a3d3d0fa576b.png

在Pandas中,有几种基于日期对数据进行分组的方法。我们将使用这些虚拟数据进行演示:

import pandas as pd  import numpy as np # generating data consisting of weekly sales for the timeperiod Jan,2022 to Jan,2023 dates =  pd.date_range('2022-01-01', '2023-01-05', freq = '1 W') sales_val = np.linspace(1000, 2000,len(dates) ) data = {'date':dates,         'sales': sales_val}  # Load the data  df = pd.DataFrame(data)  # Convert the 'date' column to a datetime type  df['date'] = pd.to_datetime(df['date'])  df.sample(5)

9d783deda439e43eae77b810ca43bfab.png

一些最常用的时间序列数据分组方法是:

1. resample

pandas中的resample 方法用于对时间序列数据进行重采样,可以将数据的频率更改为不同的间隔。例如将每日数据重新采样为每月数据。Pandas中的resample方法可用于基于时间间隔对数据进行分组。它接收frequency参数并返回一个Resampler对象,该对象可用于应用各种聚合函数,如mean、sum或count。resample()只在DataFrame的索引为日期或时间类型时才对数据进行重新采样。

import matplotlib.pyplot as plt import seaborn as sns # Set the 'date' column as the index, # and Group the data by month using resample  grouped = df.set_index('date').resample('M').mean()  print("Grouping is done on monthly basis using resample method:\n", grouped) # plot the average of monthly sales sns.lineplot(grouped.index, grouped['sales']) plt.xlabel("Date") plt.ylabel("Average Monthly Sales") plt.grid(True) plt.title("Average Monthly sales with respect to month")

4ce7f237ca1f6bccd6c5a5b9089f5f39.png9e77fc61fe447114a7479bbf06f624f5.png

在本例中,我们首先将' date '列转换为日期类型,然后将其设置为DataFrame的索引。然后使用重采样方法按月分组数据,并计算每个月的“sales”列的平均值。结果是一个新的DF,每个月有一行,还包含该月“sales”列的平均值。

2. 使用Grouper

pandas的Grouper 函数可以与 groupby 方法一起使用,以根据不同的时间间隔(例如分钟、小时、天、周、月、季度或年)对数据进行分组。Grouper 包含了key (包含日期的列)、frequency (分组依据的间隔)、closed (关闭间隔的一侧)和label (标记间隔)等参数。Pandas 中的 Grouper 函数提供了一种按不同时间间隔(例如分钟、小时、天、周、月、季度或年)对时间序列数据进行分组的便捷方法。通过与Pandas 中的 groupby 方法 一起使用,可以根据不同的时间间隔对时间序列数据进行分组和汇总。

Grouper函数接受以下参数:

  • key: 时间序列数据的列名。

  • freq: 时间间隔的频率,如“D”表示日,“W”表示周,“M”表示月,等等。

    具体freq的取值如下:

    'D': 每天
    'B': 每个工作日(排除周末)
    'W': 每周
    'M': 每月最后一天
    'MS': 每月第一天
    'Q': 每季度最后一天
    'QS': 每季度第一天
    'Y': 每年最后一天
    'YS': 每年第一天
    

    表示的是显示的时间,例如取Y时,会显示每年12/31;取YS时,显示的是1/1,但计算出的取值是一致的

    详细取值可参考官方文档

  • closed: 间隔是否应该在右侧(右)、左侧(左)或两侧(两个)闭合。

  • label: 用它的结束(右)或开始(左)日期标记间隔。

Grouper函数和groupby一起按月间隔对数据进行分组:

import matplotlib.pyplot as plt 
import seaborn as sns 
# Group the data by month using pd.Grouper and calculate monthly average 
grouped = df.groupby(pd.Grouper(key='date', freq='M')).mean() 
print("Grouping is done on monthly basis using pandas.Grouper and groupby method:\n", grouped) 
# plot the average of monthly sales sns.lineplot(grouped.index, grouped['sales']) plt.xlabel("Date") 
plt.ylabel("Average Monthly Sales") 
plt.grid(True) 
plt.title("Average Monthly sales with respect to month using pd.Grouper and groupby ")

c2f016bf8494e12f259c62aba44de4ad.png

44637760e9312bb5c97d0f0f977f5055.png

3. dt 访问器和 groupby

Pandas中的dt访问器可以从日期和时间类列中提取各种属性,例如年、月、日等。所以我们可以使用提取的属性根据与日期相关的信息对数据进行分组。

在Pandas中,使用dt访问器从DataFrame中的date和time对象中提取属性,然后使用groupby方法将数据分组为间隔。

import matplotlib.pyplot as plt import seaborn as sns # Group the data by month using dt and calculate monthly average grouped = df.groupby(df['date'].dt.to_period("M")).mean() print("Grouping is done on monthly basis using dt and groupby method:\n", grouped)

3e8760b1ded0b97278cf7eb8095a0682.png

总结

这三种常用的方法可以汇总时间序列数据,所有方法都相对容易使用。在时间复杂度方面,所有方法对于中小型数据集都是有效的。对于较大的数据集,resample的性能更好,因为它针对时间索引进行了优化。而,Grouper和dt提供了更大的灵活性,可以进行更复杂的分组操作。可以根据自己喜欢的语法或者特定的需求选择一种方法使用。

目录
相关文章
|
10天前
|
机器学习/深度学习 数据可视化 搜索推荐
Python在社交媒体分析中扮演关键角色,借助Pandas、NumPy、Matplotlib等工具处理、可视化数据及进行机器学习。
【7月更文挑战第5天】Python在社交媒体分析中扮演关键角色,借助Pandas、NumPy、Matplotlib等工具处理、可视化数据及进行机器学习。流程包括数据获取、预处理、探索、模型选择、评估与优化,以及结果可视化。示例展示了用户行为、话题趋势和用户画像分析。Python的丰富生态使得社交媒体洞察变得高效。通过学习和实践,可以提升社交媒体分析能力。
25 1
|
2月前
|
存储 JSON 数据处理
从JSON数据到Pandas DataFrame:如何解析出所需字段
从JSON数据到Pandas DataFrame:如何解析出所需字段
126 1
|
10天前
|
存储 消息中间件 数据挖掘
Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。
【7月更文挑战第5天】Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。示例代码展示了从Kafka消费数据,计算社交媒体活跃度和物联网设备状态,并可视化结果。适用于监控、故障检测等场景。通过学习和实践,提升实时数据分析能力。
19 0
|
10天前
|
数据采集 数据挖掘 大数据
Pandas是Python数据分析的核心库,基于NumPy,提供DataFrame结构处理结构化数据
【7月更文挑战第5天】Pandas是Python数据分析的核心库,基于NumPy,提供DataFrame结构处理结构化数据。它支持缺失值处理(dropna()、fillna())、异常值检测(Z-Score、IQR法)和重复值管理(duplicated()、drop_duplicates())。此外,数据转换包括类型转换(astype())、数据标准化(Min-Max、Z-Score)以及类别编码(get_dummies())。这些功能使得Pandas成为大数据预处理的强大工具。
|
2月前
|
数据采集 监控 数据可视化
Pandas平滑法时序数据
【5月更文挑战第17天】本文介绍了使用Python的Pandas库实现指数平滑法进行时间序列预测分析。指数平滑法是一种加权移动平均预测方法,通过历史数据的加权平均值预测未来趋势。文章首先阐述了指数平滑法的基本原理,包括简单指数平滑的计算公式。接着,展示了如何用Pandas读取时间序列数据并实现指数平滑,提供了示例代码。此外,文中还讨论了指数平滑法在实际项目中的应用,如销售预测和库存管理,并提到了在`statsmodels`库中使用`SimpleExpSmoothing`函数进行模型拟合和预测。最后,文章强调了模型调优、异常值处理、季节性调整以及部署和监控的重要性,旨在帮助读者理解和应用这一方法
36 2
 Pandas平滑法时序数据
|
2月前
|
存储 数据采集 JSON
Pandas数据读取三连“坑”
大家小时候有没有用玩儿过一种飞行棋,两个人玩儿,摇骰子摇到几然后就相应的往前走几步,看谁先到终点谁就胜利了。在玩儿的途中,地图上有很多奖励或者陷阱,有的时候运气不好,连中好几个陷阱不但没有前进反而还后退了。 这不最近再看Pandas数据读取的知识时候,我就踩了好几个小坑,幸亏把学习文档上的提供的demo进行了验证,不然在以后项目应用的时候再遇到了岂不是挺尴尬了。
|
6天前
|
数据挖掘 Python
【Python】已解决:Python pandas读取Excel表格某些数值字段结果为NaN问题
【Python】已解决:Python pandas读取Excel表格某些数值字段结果为NaN问题
20 0
|
2天前
|
SQL 并行计算 API
Dask是一个用于并行计算的Python库,它提供了类似于Pandas和NumPy的API,但能够在大型数据集上进行并行计算。
Dask是一个用于并行计算的Python库,它提供了类似于Pandas和NumPy的API,但能够在大型数据集上进行并行计算。
19 9
|
3天前
|
机器学习/深度学习 数据采集 数据挖掘
解锁 Python 数据分析新境界:Pandas 与 NumPy 高级技巧深度剖析
【7月更文挑战第12天】Python的Pandas和NumPy库助力高效数据处理。Pandas用于数据清洗,如填充缺失值和转换类型;NumPy则擅长数组运算,如元素级加法和矩阵乘法。结合两者,可做复杂数据分析和特征工程,如产品平均销售额计算及销售额标准化。Pandas的时间序列功能,如移动平均计算,进一步增强分析能力。掌握这两者高级技巧,能提升数据分析质量和效率。
17 4