Python数据分析 | Pandas数据分组与操作

简介: Pandas中可以借助groupby操作对Dataframe分组操作,本文介绍groupby的基本原理及对应的agg、transform和apply方法与操作。

ShowMeAI研究中心

ShowMeAI研究中心

作者:韩信子@ShowMeAI
教程地址http://www.showmeai.tech/tutorials/33
本文地址http://www.showmeai.tech/article-detail/148
声明:版权所有,转载请联系平台与作者并注明出处

当我们提到python数据分析的时候,大部分情况下都会使用Pandas进行操作。pandas整个系列覆盖以下内容:

一、Pandas数据分组与操作

在我们进行业务数据分析时,经常要对数据根据1个或多个字段分为不同的组(group)进行分析处理。如电商领域可能会根据地理位置分组,社交领域会根据用户画像(性别、年龄)进行分组,再进行后续的分析处理。

Pandas中可以借助groupby操作对Dataframe分组操作,本文介绍groupby的基本原理及对应的agg、transform和apply方法与操作。

我们先模拟产出1个Dataframe:

import numpy as np
import pandas as pd

company=["A","B","C"]

data=pd.DataFrame({
    "company":[company[x] for x in np.random.randint(0,len(company),10)],
    "salary":np.random.randint(5,50,10),
    "age":np.random.randint(15,50,10)})

二、Groupby分组及应用

2.1 分组

pandas实现分组操作的很简单,只需要把分组的依据(字段)放入groupby中,例如下面示例代码基于company分组:

group = data.groupby("company")

经过groupby处理之后我们会得到一个DataFrameGroupBy对象:

group
# 输出
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x000001C67C072BE0>

这个生成的DataFrameGroupBy是什么?data经过groupby处理后发生了什么?

上面返回的Groupby处理结果是内存地址,并不利于直观地理解,我们可以把group转换成list的形式来看一看内部数据和整个过程:

list(group)

转换成列表的形式后,可以看到,列表由三个元组组成,每个元组中:

  • 第一个元素是组别(这里是按照company进行分组,所以最后分为了A,B,C)
  • 第二个元素的是对应组别下的DataFrame

总结一下,groupby将原有的DataFrame按照指定的字段(这里是company),划分为若干个分组DataFrame。groupby之后可以进行下一步操作,注意,在groupby之后的一系列操作(如agg、apply等),均是基于子DataFrame的操作。

下面我们一起看看groupby之后的常见操作。

2.2 agg 聚合操作

聚合统计操作是groupby后最常见的操作,类比于SQL中我们会对数据按照group做聚合,pandas中通过agg来完成。聚合操作可以用来求和、均值、最大值、最小值等,下表为Pandas中常见的聚合操作:

例如,计算不同公司员工的平均年龄和平均薪水,示例代码如下:

data.groupby("company").agg('mean')

或者针对不同字段做不同的计算处理,例如,要计算不同公司员工的平均年龄、薪水的中位数。可以利用字典进行聚合操作:

data.groupby('company').agg({'salary':'median','age':'mean'})

我们对agg聚合过程进行图解,如下所示:

2.3 transform变换

transform是另外一个pandas分组后会使用到的方法,我们举例来说明它的用法。

上述agg应用例子中,我们计算了不同公司员工的平均薪水,如果现在需要新增一列avg\_salary,代表员工所在的公司的平均薪水(相同公司的员工具有一样的平均薪水),我们就可以借助transform来完成。

要完成上述任务,我们需要先求得不同公司的平均薪水,再按照员工和公司的对应关系填充到对应的位置,使用之前学到的map方法可以拆解实现如下:

avg_salary_dict = data.groupby('company')['salary'].mean().to_dict()

data['avg_salary'] = data['company'].map(avg_salary_dict)

data

而transform方法可以帮助我们一行实现全过程:

data['avg_salary'] = data.groupby('company')['salary'].transform('mean')

data

下面对groupby+transform的过程做图解帮助理解:

注意图中大方框,展示了transform和agg不一样的计算过程:

  • agg:会计算得到A,B,C公司对应的均值并直接返回
  • transform:会对每一条数据求得相应的结果,同一组内的样本会有相同的值,组内求完均值后会按照原索引的顺序返回结果

2.4 apply方法

之前我们介绍过对Dataframe使用apply进行灵活数据变换操作处理的方法,它支持传入自定义函数,实现复杂数据操作。apply除了之前介绍的用法,也可以用在groupby后,我们一起来学习一下。

对于groupby后的apply,实际上是以分组后的子DataFrame作为参数传入指定函数的,基本操作单位是DataFrame,而之前介绍的apply的基本操作单位是Series。我们通过一个案例来理解一下。

加入我们需要获取各个公司年龄最大的员工的数据,可以通过以下代码实现:

def get_oldest_staff(x):
     df = x.sort_values(by = 'age',ascending=True)
     return df.iloc[-1,:]

oldest_staff = data.groupby('company',as_index=False).apply(get_oldest_staff)

oldest_staff

我们对上面的过程图解帮助理解:

本例中的apply传入函数的参数由Series变成这里的分组DataFrame。相比于agg和transform,apply方法拥有更大的灵活性,但它的运行效率会比agg和transform慢。所以,groupby之后怼数据做操作,优先使用agg和transform,其次再考虑使用apply进行操作。

资料与代码下载

本教程系列的代码可以在ShowMeAI对应的 github 中下载,可本地python环境运行。能访问Google的宝宝也可以直接借助google colab一键运行与交互操作学习哦!

本系列教程涉及的速查表可以在以下地址下载获取

拓展参考资料

ShowMeAI相关文章推荐

ShowMeAI系列教程推荐

showmeai

目录
相关文章
|
20小时前
|
API Python
使用Python获取HTTP请求头数据
在Python Web开发中,`requests`库用于发送HTTP请求,请求头是关键元素,包含客户端信息和请求详情。要查看请求头,先创建`Request`对象,打印其`headers`属性,然后使用`get`等方法发送请求并获取响应头。别忘了处理不同HTTP方法、内容类型以及异常。使用`Session`管理会话状态,并考虑日志记录以调试。通过控制请求头,能有效与服务器通信。
10 0
|
1天前
|
存储 数据挖掘 索引
Python streamlit框架开发数据分析网站并免费部署
使用Python的Streamlit框架,开发了一个在线数据分析工具,替代Excel查看设备温度CSV数据。通过pandas读取数据,matplotlib绘制图表。程序处理CSV,提取所需列,计算最大最小平均值,用户可多选查看特定数据。[GitHub](https://github.com/yigedaigua/MGHB)上有完整代码,应用已部署至Streamlit Cloud。
|
1天前
|
数据挖掘 数据库连接 Python
GitHub高赞!Python零基础也能搞定的数据分析与处理
经常会有人让我推荐一些 Python 入门教程。虽然 Python 入内教程到处都有,但是这些教程要么太宽泛(没有讲任何关于数据分析的内容),要么太专业(全是关于科学原理的内容)。然而Excel用户往往处在一个中间位置:他们的确是和数据打交道,但是科学原理对于他们来说可能又太专业了。他们常常有一些现有教程无法满足的特殊需求,举例如下 • 为完成某个任务,我应该用哪个 Python-Excel包? • 我如何将 Power Query 数据库连接迁移到 Python? • Excel中的 AutoFilter和数据透视表在 Python 中对应的是什么?
|
1天前
|
XML 前端开发 数据挖掘
Web数据提取:Python中BeautifulSoup与htmltab的结合使用
Web数据提取:Python中BeautifulSoup与htmltab的结合使用
|
2天前
|
数据采集 存储 数据挖掘
Python网络爬虫实战:抓取并分析网页数据
使用Python的`requests`和`BeautifulSoup`,本文演示了一个简单的网络爬虫,抓取天气网站数据并进行分析。步骤包括发送HTTP请求获取HTML,解析HTML提取温度和湿度信息,以及计算平均温度。注意事项涉及遵守robots.txt、控制请求频率及处理动态内容。此基础爬虫展示了数据自动收集和初步分析的基础流程。【6月更文挑战第14天】
|
2天前
|
数据采集 数据可视化 数据挖掘
数据挖掘实战:使用Python进行数据分析与可视化
在大数据时代,Python因其强大库支持和易学性成为数据挖掘的首选语言。本文通过一个电商销售数据案例,演示如何使用Python进行数据预处理(如处理缺失值)、分析(如销售额时间趋势)和可视化(如商品类别销售条形图),揭示数据背后的模式。安装`pandas`, `numpy`, `matplotlib`, `seaborn`后,可以按照提供的代码步骤,从读取CSV到数据探索,体验Python在数据分析中的威力。这只是数据科学的入门,更多高级技术等待发掘。【6月更文挑战第14天】
|
3天前
|
Python
在Python的pandas库中,向DataFrame添加新列简单易行
【6月更文挑战第15天】在Python的pandas库中,向DataFrame添加新列简单易行。可通过直接赋值、使用Series或apply方法实现。例如,直接赋值可将列表或Series对象分配给新列;使用Series可基于现有列计算生成新列;apply方法则允许应用自定义函数到每一行或列来创建新列。
34 8
|
6天前
|
数据采集 数据可视化 数据挖掘
数据分析大神养成记:Python+Pandas+Matplotlib助你飞跃!
【6月更文挑战第12天】在数字时代,Python因其强大的数据处理能力和易用性成为数据分析首选工具。结合Pandas(用于高效数据处理)和Matplotlib(用于数据可视化),能助你成为数据分析专家。Python处理数据预处理、分析和可视化,Pandas的DataFrame简化表格数据操作,Matplotlib则提供丰富图表展示数据。掌握这三个库,数据分析之路将更加畅通无阻。
|
8天前
|
存储 数据挖掘 数据处理
【python源码解析】深入 Pandas BlockManager 的数据结构和初始化过程
【python源码解析】深入 Pandas BlockManager 的数据结构和初始化过程
|
13天前
|
存储 数据挖掘 数据处理
19. Python 数据处理之 Pandas
19. Python 数据处理之 Pandas
24 1

热门文章

最新文章