一文速学-Pandas数据分组操作方法详解+代码展示

简介: 一文速学-Pandas数据分组操作方法详解+代码展示

数据分组


数据分组操作可以理解分为三个步骤:


a20d52ef610b45d587e212155bc88ec3.png

第一步为将指定的数据表,按照键的不同分为若干组。第二部为将这些分组进行计算操作,可以设定为自定义函数运算。第三步计算完成后,再进行合并操作,得到新的一张表格。这个操作很像大数据架构计算框架中的MapReduce,经过上述操作我们就能对一些排列杂乱无章的表操作,从而得到我们想要的数据。接着我们来进行实例操作:


第一步:分组


首先我们读出这次的实例表:


7e7cae06dcaf409389ce6d84c96ae380.png


对于分组Pandas提供了groupby函数,该函数可以根据传入的列名进行自动分组,基本格式如下:


DataFrame.groupby(by=None, axis=0, level=None, as_index=True, sort=True, group_keys=True, squeeze=False, observed=False, **kwargs)

参数说明:


by:指定分组的列索引

axis:0为逐行处理1为逐列处理,默认为0.

level:若为复合索引则可以调整索引层次

as_index:聚合输出,返回对象组标签的索引。

sort:排序

group_keys:当调用到apply函数时,传入主键

squeeze:降低维数的返回类型,若为True则仅返回一致的数据类型

若我们对人群类型进行分组处理:

df1.groupby("人群类型")
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x0000028A8EB14DC8>


使用groupby函数后我们发现并没有返回一个DataFrame,而是得到了DataFrameGroupBy的一个数据类型。这个数据类型包含分组以后的若干数据,我们需要对这些分组数据进行汇总计算之后才会显示。


对于分完组后的DataFrameGroupBy来说,使用head()函数看前几列时,输出的是每组的前几列:

groupby1=df1.groupby("人群类型")
groupby1.head(1)


df52482f5c4d4273a1562a17a15eba4f.png

而first显示的则是每一个分组的第一个信息,可以理解为形成了一个类似字典的结构:


groupby1.first()


af51e20f28ae4ceba6e6649602297b24.png


1)根据一列分组:


1. groupby1=df1.groupby("人群类型")
2. groupby1.get_group('新用户').head()


6d559dc9cd6e44ee8b8acce2856d8bad.png


2)根据多列分组


我们用两个主键人群类型和人群数值来分组:


1. groupby2=df1.groupby(["人群类型","人群数值"])
2. groupby2.get_group(('一般用户',10)).head()


72c910aab346498c8e6f93bed4b0de50.png


3)组容量


使用size函数可以看到每个DataFrameGroupBy中根据主键分类后的个数:


2a21daa1c7c94172a283bd29558876c8.png



f61f6e48d087451788c7e8006025caf6.png


4)遍历


循环即可:


1. for name,group in grouped_single:
2. print(name)
3.     display(group.head())

7c23f3fafcf04714b20fc813c7a53b51.png

2372b3a8693948808042b52961b4f7d0.png


5)多级索引


通过给定level参数可以调整指向的索引为第几索引:


1. df2=df1.set_index(['人群类型','性别'])
2. df2.groupby(level=1).get_group('男').head()

 

775c9e3de4b2444980ff61e704bcf18d.png


6)组合操作


可以通过使用各种函数来调用gourpby函数:


df1.groupby(['人群类型'])['人群数值'].count()>=3


0f92f2dfef3f41f78c25b54da1f16dbf.png

df1.groupby(['人群类型'])['人群数值'].mean()

2d656e1490954f93a3550ac3e2fbec4d.png


第二步:聚合


其实对于聚合函数我们已经非常熟悉,常见的mean(),sum(),size(),count()等这类函数都是聚合函数,所谓聚合就是将大量数据进行处理后形成另一个代表性的标量。

在Pandas中提供了agg()方法专门用来聚合一些函数,其基础格式为:

DataFrame.agg(func,axis = 0,* args,** kwargs )


参数说明:

func:用于聚合数据的函数

axis:0为逐行操作,1为逐列操作  

args:传递给func的为位置参数

kwargs:传递给func的关键字参数

为了方便展示这里重新构建一个表:

data = {'name': ['user1', 'user2', 'user3', 'user4', 'user5'],
        'old': [21, 21, 21, 19, 26],
        'weight': [124, 124, 124,103,121],
       'sex':['女','男','男','男','男'],
       'species':['一般用户','新用户','一般用户','流失用户','一般用户']}
columns1=['name', 'old', 'weight','sex','species']
index1=['id1', 'id2', 'id3','id4','id5']
df2= pd.DataFrame(data,columns=columns1,index=index1)

076d475012eb439e82bfff34e9c2f57e.png


1)多聚合


我们可以通过species进行分组后采用聚合函数,可以分别指定列开分析数据:


1. goupby3=df2.groupby(['species'])
2. goupby3['old'].agg(['min','mean','max']


fa465e3f226c451191911d0f66d8a3c9.png


2)重命名


goupby3['old'].agg([('rename_min','min'),('rename_max','max')])


f5010cf6feb943798120b3cf404b73c5.png

3)多列聚合


goupby3.agg({'old':['min','max'],'weight':['mean']})

1b2976668b364c8f9246825b6360cc4e.png


4)用户自定义函数


agg函数中可嵌套lambda函数:


goupby3['old'].agg(lambda x:print(x.head()))

95b617b421894cfba4b90e9f21dbb7cc.png


判断用户最大是否在18-20岁之间:


1. def f(s,low,high):
2. return s.between(low,high).max()
3. goupby3['old'].agg(f,18,20)


59ec990f134f435abafba961dce7895c.png


第三步:apply合并


apply是应用的最广泛的函数,这得益于它的兼容性,我们可以使用apply进行合并分组生成更多我们想要的表格。


goupby3.apply(lambda x:x.max())


480102c6fd084f478253b6280e7c2686.png


返回区间数:


goupby3['old'].apply(lambda x:x.max()-x.min()).head()

cccd6cb4f9114862aa1aab0a61210d1a.png

目录
相关文章
|
3月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
507 0
|
6月前
|
自然语言处理 数据挖掘 数据处理
告别低效代码:用对这10个Pandas方法让数据分析效率翻倍
本文将介绍 10 个在数据处理中至关重要的 Pandas 技术模式。这些模式能够显著减少调试时间,提升代码的可维护性,并构建更加清晰的数据处理流水线。
235 3
告别低效代码:用对这10个Pandas方法让数据分析效率翻倍
|
8月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
784 13
Pandas数据合并:10种高效连接技巧与常见问题
|
11月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
642 100
Pandas高级数据处理:数据流式计算
|
11月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
320 31
|
11月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
261 17
|
11月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
252 12
|
11月前
|
数据采集 存储 数据可视化
Pandas高级数据处理:数据报告生成
Pandas 是数据分析领域不可或缺的工具,支持多种文件格式的数据读取与写入、数据清洗、筛选与过滤。本文从基础到高级,介绍如何使用 Pandas 进行数据处理,并解决常见问题和报错,如数据类型不一致、时间格式解析错误、内存不足等。最后,通过数据汇总、可视化和报告导出,生成专业的数据报告,帮助你在实际工作中更加高效地处理数据。
325 8
|
11月前
|
数据采集 并行计算 数据可视化
Pandas高级数据处理:数据报告生成实战指南
数据报告生成面临数据质量、计算性能、呈现形式和自动化等核心挑战。常见问题包括缺失值导致统计失真、内存溢出及可视化困难。解决方案涵盖数据清洗、分块处理、安全绘图模板等。通过模块化设计、异常处理机制和性能优化策略,如使用`category`类型、并行计算等,可大幅提升效率。最佳实践建议建立数据质量检查清单、版本控制和自动化测试框架,确保系统具备自适应能力,提升报告生成效率300%以上。
301 12
|
12月前
|
数据采集 供应链 数据可视化
Pandas数据应用:供应链优化
在当今全球化的商业环境中,供应链管理日益复杂。Pandas作为Python的强大数据分析库,能有效处理库存、物流和生产计划中的大量数据。本文介绍如何用Pandas优化供应链,涵盖数据导入、清洗、类型转换、分析与可视化,并探讨常见问题及解决方案,帮助读者在供应链项目中更加得心应手。
244 21