Python数据分析 | Pandas数据分组与操作

简介: Pandas中可以借助groupby操作对Dataframe分组操作,本文介绍groupby的基本原理及对应的agg、transform和apply方法与操作。

ShowMeAI研究中心

ShowMeAI研究中心

作者:韩信子@ShowMeAI
教程地址http://www.showmeai.tech/tutorials/33
本文地址http://www.showmeai.tech/article-detail/148
声明:版权所有,转载请联系平台与作者并注明出处

当我们提到python数据分析的时候,大部分情况下都会使用Pandas进行操作。pandas整个系列覆盖以下内容:

一、Pandas数据分组与操作

在我们进行业务数据分析时,经常要对数据根据1个或多个字段分为不同的组(group)进行分析处理。如电商领域可能会根据地理位置分组,社交领域会根据用户画像(性别、年龄)进行分组,再进行后续的分析处理。

Pandas中可以借助groupby操作对Dataframe分组操作,本文介绍groupby的基本原理及对应的agg、transform和apply方法与操作。

我们先模拟产出1个Dataframe:

import numpy as np
import pandas as pd

company=["A","B","C"]

data=pd.DataFrame({
    "company":[company[x] for x in np.random.randint(0,len(company),10)],
    "salary":np.random.randint(5,50,10),
    "age":np.random.randint(15,50,10)})

二、Groupby分组及应用

2.1 分组

pandas实现分组操作的很简单,只需要把分组的依据(字段)放入groupby中,例如下面示例代码基于company分组:

group = data.groupby("company")

经过groupby处理之后我们会得到一个DataFrameGroupBy对象:

group
# 输出
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x000001C67C072BE0>

这个生成的DataFrameGroupBy是什么?data经过groupby处理后发生了什么?

上面返回的Groupby处理结果是内存地址,并不利于直观地理解,我们可以把group转换成list的形式来看一看内部数据和整个过程:

list(group)

转换成列表的形式后,可以看到,列表由三个元组组成,每个元组中:

  • 第一个元素是组别(这里是按照company进行分组,所以最后分为了A,B,C)
  • 第二个元素的是对应组别下的DataFrame

总结一下,groupby将原有的DataFrame按照指定的字段(这里是company),划分为若干个分组DataFrame。groupby之后可以进行下一步操作,注意,在groupby之后的一系列操作(如agg、apply等),均是基于子DataFrame的操作。

下面我们一起看看groupby之后的常见操作。

2.2 agg 聚合操作

聚合统计操作是groupby后最常见的操作,类比于SQL中我们会对数据按照group做聚合,pandas中通过agg来完成。聚合操作可以用来求和、均值、最大值、最小值等,下表为Pandas中常见的聚合操作:

例如,计算不同公司员工的平均年龄和平均薪水,示例代码如下:

data.groupby("company").agg('mean')

或者针对不同字段做不同的计算处理,例如,要计算不同公司员工的平均年龄、薪水的中位数。可以利用字典进行聚合操作:

data.groupby('company').agg({'salary':'median','age':'mean'})

我们对agg聚合过程进行图解,如下所示:

2.3 transform变换

transform是另外一个pandas分组后会使用到的方法,我们举例来说明它的用法。

上述agg应用例子中,我们计算了不同公司员工的平均薪水,如果现在需要新增一列avg\_salary,代表员工所在的公司的平均薪水(相同公司的员工具有一样的平均薪水),我们就可以借助transform来完成。

要完成上述任务,我们需要先求得不同公司的平均薪水,再按照员工和公司的对应关系填充到对应的位置,使用之前学到的map方法可以拆解实现如下:

avg_salary_dict = data.groupby('company')['salary'].mean().to_dict()

data['avg_salary'] = data['company'].map(avg_salary_dict)

data

而transform方法可以帮助我们一行实现全过程:

data['avg_salary'] = data.groupby('company')['salary'].transform('mean')

data

下面对groupby+transform的过程做图解帮助理解:

注意图中大方框,展示了transform和agg不一样的计算过程:

  • agg:会计算得到A,B,C公司对应的均值并直接返回
  • transform:会对每一条数据求得相应的结果,同一组内的样本会有相同的值,组内求完均值后会按照原索引的顺序返回结果

2.4 apply方法

之前我们介绍过对Dataframe使用apply进行灵活数据变换操作处理的方法,它支持传入自定义函数,实现复杂数据操作。apply除了之前介绍的用法,也可以用在groupby后,我们一起来学习一下。

对于groupby后的apply,实际上是以分组后的子DataFrame作为参数传入指定函数的,基本操作单位是DataFrame,而之前介绍的apply的基本操作单位是Series。我们通过一个案例来理解一下。

加入我们需要获取各个公司年龄最大的员工的数据,可以通过以下代码实现:

def get_oldest_staff(x):
     df = x.sort_values(by = 'age',ascending=True)
     return df.iloc[-1,:]

oldest_staff = data.groupby('company',as_index=False).apply(get_oldest_staff)

oldest_staff

我们对上面的过程图解帮助理解:

本例中的apply传入函数的参数由Series变成这里的分组DataFrame。相比于agg和transform,apply方法拥有更大的灵活性,但它的运行效率会比agg和transform慢。所以,groupby之后怼数据做操作,优先使用agg和transform,其次再考虑使用apply进行操作。

资料与代码下载

本教程系列的代码可以在ShowMeAI对应的 github 中下载,可本地python环境运行。能访问Google的宝宝也可以直接借助google colab一键运行与交互操作学习哦!

本系列教程涉及的速查表可以在以下地址下载获取

拓展参考资料

ShowMeAI相关文章推荐

ShowMeAI系列教程推荐

showmeai

目录
相关文章
|
2天前
|
数据采集 机器学习/深度学习 数据可视化
了解数据科学面试中的Python数据分析重点,包括Pandas(DataFrame)、NumPy(ndarray)和Matplotlib(图表绘制)。
【7月更文挑战第5天】了解数据科学面试中的Python数据分析重点,包括Pandas(DataFrame)、NumPy(ndarray)和Matplotlib(图表绘制)。数据预处理涉及缺失值(dropna(), fillna())和异常值处理。使用describe()进行统计分析,通过Matplotlib和Seaborn绘图。回归和分类分析用到Scikit-learn,如LinearRegression和RandomForestClassifier。
14 3
|
2天前
|
数据采集 机器学习/深度学习 数据可视化
关于Python数据分析项目的简要概述:从CSV加载数据,执行数据预处理,进行数据探索,选择线性回归模型进行训练,评估模型性能并优化,最后结果解释与可视化。
【7月更文挑战第5天】这是一个关于Python数据分析项目的简要概述:从CSV加载数据,执行数据预处理(填充缺失值,处理异常值),进行数据探索(可视化和统计分析),选择线性回归模型进行训练,评估模型性能并优化,最后结果解释与可视化。此案例展示了数据科学的典型流程。
14 2
|
2天前
|
数据采集 机器学习/深度学习 数据可视化
完整的Python数据分析流程案例解析-数据科学项目实战
【7月更文挑战第5天】这是一个Python数据分析项目的概览,涵盖了从CSV数据加载到模型评估的步骤:获取数据、预处理(处理缺失值和异常值、转换数据)、数据探索(可视化和统计分析)、模型选择(线性回归)、训练与评估、优化,以及结果的可视化和解释。此流程展示了理论与实践的结合在解决实际问题中的应用。
18 1
|
2天前
|
存储 消息中间件 数据挖掘
Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。
【7月更文挑战第5天】Python实时数据分析:利用丰富的库(如Pandas, PySpark, Kafka)进行流处理,涵盖数据获取、预处理、处理、存储及展示。示例代码展示了从Kafka消费数据,计算社交媒体活跃度和物联网设备状态,并可视化结果。适用于监控、故障检测等场景。通过学习和实践,提升实时数据分析能力。
8 0
|
3天前
|
存储 SQL 数据可视化
Python 金融编程第二版(二)(4)
Python 金融编程第二版(二)
11 1
|
3天前
|
存储 分布式计算 数据可视化
Python 金融编程第二版(四)(2)
Python 金融编程第二版(四)
13 0
|
3天前
|
存储 SQL 数据可视化
Python 金融编程第二版(四)(1)
Python 金融编程第二版(四)
9 0
|
3天前
|
数据挖掘 索引 Python
Python 金融编程第二版(二)(5)
Python 金融编程第二版(二)
7 0
|
3天前
|
数据可视化 Python
Python 金融编程第二版(三)(4)
Python 金融编程第二版(三)
12 2
|
3天前
|
存储 索引 Python
Python 金融编程第二版(二)(1)
Python 金融编程第二版(二)
9 2