数据专家最常使用的 10 大类 Pandas 函数 ⛵

简介: Pandas 是数据科学领域最受欢迎的 Python 工具库之一,函数与功能极其丰富。本文将数据科学家常用的二三十个功能函数总结为10类,熟练掌握就能轻松解决80%以上的数据处理问题!

💡 作者: 韩信子@ ShowMeAI
📘 数据分析实战系列http://www.showmeai.tech/tutorials/40
📘 本文地址http://www.showmeai.tech/article-detail/304
📢 声明:版权所有,转载请联系平台与作者并注明出处
📢 收藏 ShowMeAI查看更多精彩内容

Python具有极其活跃的社区和覆盖全领域的第三方库工具库,近年来一直位居编程语言热度头部位置,而数据科学领域最受欢迎的python工具库之一是 Pandas。随着这么多年来的社区高速发展和海量的开源贡献者,使得 pandas 几乎可以胜任任何数据处理工作。

Pandas的功能与函数极其丰富,要完全记住和掌握是不现实的(也没有必要),资深数据分析师和数据科学家最常使用的大概有二三十个函数。在本篇内容中,ShowMeAI 把这些功能函数总结为10类。熟练掌握它们,你就可以轻松解决80% 以上的数据处理问题。

也推荐大家阅读ShowMeAI针对数据分析编写的教程和速查表,快速成为数据洞察高手!

💡 1.读取数据

我们经常要从外部源读取数据,基于不同的源数据格式,我们可以使用对应的 read_*功能:

  • read_csv:我们读取CSV格式数据时使用它。这个函数的使用注意点包括 header(是否有表头以及哪一行是表头), sep(分隔符),和 usecols(要使用的列/字段的子集)。
  • read_excel:读取Excel格式文件时使用它。这个函数的使用注意点包括 sheet_name(哪个表)和标题。
  • read_pickle:读取pickle格式存储的文件时使用,这个格式的优势是比 CSV 和 Excel快很多。
  • read_sas: 我经常使用这个功能,因为我曾经使用 SAS 来处理数据。

💡 2.写入数据

处理完数据后,我们可能会把处理后的DataFrame保存下来,最常用的文件写入函数如下:

  • to_csv: 写入 CSV 文件。 注意:它不保留某些数据类型(例如日期)。 很多情况下我们会将参数索引设置为False,这样就不用额外的列来显示数据文件中的索引。
  • to_excel: 写入 Excel 文件。
  • to_pickle:写入pickle文件。这是建议的写入格式,读写的速度都非常快。

💡 3.数据概览

将数据成 DataFrame 格式后,我们最好对数据有一个初步的了解,以下是最常用到的几个数据概览函数,能提供数据的基本信息。

  • head:返回前几行,通常用于检查数据是否正确读取,以及了解数据字段和形态等基本信息。
  • tail:检查最后几行。在处理大文件时,读取可能不完整,可以通过它检查是否完整读取数据。
  • info:数据集的总体摘要:包括列的数据类型和内存使用情况等信息。
  • describe:提供数据集的描述性摘要(比如连续值的统计信息、类别型字段的频次信息等)。
  • shape: 行数和列数(注意,这是Dataframe的属性,而非函数)。

💡 4.数据排序

我们经常需要对数据进行排序,Dataframe有一个重要的排序函数。

  • sort_values:通过指定列名对数据进行排序,可以调整升序或者降序规则。

💡 5.处理重复

我们手上的数据集很可能存在重复记录,某些数据意外两次输入到数据源中,清洗数据时删除重复项很重要。 以下函数很常用:

  • duplicated: 识别DataFrame中是否有重复,可以指定使用哪些列来标识重复项。
  • drop_duplicates:从 DataFrame 中删除重复项。一般建议大家先使用 duplicated检查重复项,确定业务上需要删除重复项,再使用这个函数。

💡 6.处理缺失值

现实数据集中基本都会存在缺失值的情况,下面这些函数常被用作检查和处理缺失值。

  • isnull:检查您的 DataFrame 是否缺失。
  • dropna: 对数据做删除处理。注意它有很重要的参数how(如何确定观察是否被丢弃)和 thred(int类型,保留缺失值的数量)。
  • fillna: 用指定的方法填充缺失值,例如向前填充 ( ffill)。

💡 7.数据处理

一个字段可能包含很多信息,我们可以使用以下函数对字段进行数据处理和信息抽取:

  • map:通常使用map对字段进行映射操作(基于一些操作函数),如 df[“sub_id”] = df[“temp_id”].map(lambda x: int(x[-4:])).
  • apply:通过多列的数据创建新的字段,在创建新列时经常需要指定 axis=1

💡 8.数据透视

Dataframe有 2 种常见数据:

  • 『宽』格式,指的是每一行代表一条记录(样本),每一列是一个观测维度(特征)。
  • 『长』格式,在这种格式中,一个主题有多行,每一行可以代表某个时间点的度量。

我们会在这两种格式之间转换。

  • melt:将宽表转换为长表。 注意:重要参数id_vars(对于标识符)和 value_vars(其值对值列有贡献的列的列表)。
  • pivot:将长表转换为宽表。注意:重要参数index(唯一标识符), columns(列成为值列),和 values(具有值的列)。

💡 9.合并数据集

我们对多个数据集Dataframe合并的时候,可能用到下列的函数(包括表关联和拼接)。

  • merge:基于某些字段进行表关联。重要的参数包括 on(连接字段),how(例如内连接或左连接,或外连接),以及 suffixes(相同字段合并后的后缀)。
  • concat:沿行或列拼接DataFrame对象。当我们有多个相同形状/存储相同信息的 DataFrame 对象时,它很有用。

💡 10.分组统计

我们经常会需要对数据集进行分组统计操作,常用的函数包括:

  • groupby:创建一个 GroupBy 分组对象,可以基于一列或多列进行分组。
  • mean:您可以在 GroupBy 分组对象上调用 mean 来计算均值。其他的常用统计信息包括标准差std
  • size: 分组的频率
  • agg:聚合函数。包括常用的统计方法,也可以自己定义。

参考资料

目录
相关文章
|
6天前
|
数据采集 数据可视化 数据挖掘
Pandas数据应用:天气数据分析
本文介绍如何使用 Pandas 进行天气数据分析。Pandas 是一个强大的 Python 数据处理库,适合处理表格型数据。文章涵盖加载天气数据、处理缺失值、转换数据类型、时间序列分析(如滚动平均和重采样)等内容,并解决常见报错如 SettingWithCopyWarning、KeyError 和 TypeError。通过这些方法,帮助用户更好地进行气候趋势预测和决策。
98 71
|
3天前
|
分布式计算 数据可视化 数据挖掘
Pandas数据应用:社交媒体分析
本文介绍如何使用Pandas进行社交媒体数据分析,涵盖数据获取、预处理、探索性分析和建模的完整流程。通过API获取数据并转换为DataFrame格式,处理缺失值和数据类型转换问题。利用Matplotlib等库进行可视化,展示不同类型帖子的数量分布。针对大规模数据集提供内存优化方案,并结合TextBlob进行情感分析。最后总结常见问题及解决方案,帮助读者掌握Pandas在社交媒体数据分析中的应用。
127 96
|
9天前
|
编解码 数据挖掘 开发者
Pandas数据导出:CSV文件
Pandas是Python中强大的数据分析库,提供了灵活的数据结构如DataFrame和Series。通过`to_csv()`函数可轻松将数据保存为CSV文件。本文介绍了基本用法、常见问题(如编码、索引、分隔符等)及解决方案,并涵盖大文件处理和报错解决方法,帮助用户高效导出数据。
123 83
|
5天前
|
存储 数据采集 数据可视化
Pandas数据应用:电子商务数据分析
本文介绍如何使用 Pandas 进行电子商务数据分析,涵盖数据加载、清洗、预处理、分析与可视化。通过 `read_csv` 等函数加载数据,利用 `info()` 和 `describe()` 探索数据结构和统计信息。针对常见问题如缺失值、重复记录、异常值等,提供解决方案,如 `dropna()`、`drop_duplicates()` 和正则表达式处理。结合 Matplotlib 等库实现数据可视化,探讨内存不足和性能瓶颈的应对方法,并总结常见报错及解决策略,帮助提升电商企业的数据分析能力。
101 73
|
2天前
|
存储 数据采集 数据可视化
Pandas数据应用:医疗数据分析
Pandas是Python中强大的数据操作和分析库,广泛应用于医疗数据分析。本文介绍了使用Pandas进行医疗数据分析的常见问题及解决方案,涵盖数据导入、预处理、清洗、转换、可视化等方面。通过解决文件路径错误、编码不匹配、缺失值处理、异常值识别、分类变量编码等问题,结合Matplotlib等工具实现数据可视化,并提供了解决常见报错的方法。掌握这些技巧可以提高医疗数据分析的效率和准确性。
39 22
|
13天前
|
数据挖掘 数据处理 数据库
Pandas数据聚合:groupby与agg
Pandas库中的`groupby`和`agg`方法是数据分析中不可或缺的工具,用于数据分组与聚合计算。本文从基础概念、常见问题及解决方案等方面详细介绍这两个方法的使用技巧,涵盖单列聚合、多列聚合及自定义聚合函数等内容,并通过代码案例进行说明,帮助读者高效处理数据。
78 32
|
11天前
|
数据挖掘 数据处理 索引
Pandas数据重命名:列名与索引为标题
Pandas 是强大的数据分析工具,支持灵活的数据结构和操作。本文介绍如何使用 Pandas 对 `DataFrame` 的列名和索引进行重命名,包括直接赋值法、`rename()` 方法及索引修改。通过代码示例展示了具体操作,并讨论了常见问题如名称冲突、数据类型不匹配及 `inplace` 参数的使用。掌握这些技巧可使数据更清晰易懂,便于后续分析。
56 29
|
1天前
|
数据采集 数据挖掘 数据处理
Pandas数据应用:金融数据分析
本文介绍如何使用Pandas进行金融数据分析,涵盖数据导入、清洗、转换等基础操作。通过处理缺失值、重复值及数据类型不匹配等问题,结合时间序列分析和大规模数据处理技巧,帮助读者掌握常见问题的解决方案。案例分析展示了计算每日收益率并绘制图表的具体步骤。
30 14
|
7天前
|
数据采集 数据可视化 索引
Pandas数据应用:股票数据分析
本文介绍了如何使用Pandas库进行股票数据分析。首先,通过pip安装并导入Pandas库。接着,从本地CSV文件读取股票数据,并解决常见的解析错误。然后,利用head()、info()等函数查看数据基本信息,进行数据清洗,处理缺失值和重复数据。再者,结合Matplotlib和Seaborn进行数据可视化,绘制收盘价折线图。最后,进行时间序列分析,设置日期索引、重采样和计算移动平均线。通过这些步骤,帮助读者掌握Pandas在股票数据分析中的应用。
37 5
|
12天前
|
SQL 数据采集 数据挖掘
Pandas数据合并:concat与merge
Pandas是Python中强大的数据分析库,提供灵活高效的数据结构和工具。本文详细介绍了Pandas中的两种主要合并方法——`concat`和`merge`。`concat`用于沿特定轴连接多个Pandas对象,适用于简单拼接场景;`merge`则类似于SQL的JOIN操作,根据键合并DataFrame,支持多种复杂关联。文章还探讨了常见问题及解决方案,如索引对齐、列名冲突和数据类型不一致等,帮助读者全面掌握这两种方法,提高数据分析效率。
37 8