Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(二)

简介: Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(二)

前言


此文章紧接上篇文章内容:Pandas数据分析:处理文本数据(str/object)各类操作+代码一文详解(一)


Pandas数据分析系列专栏已经更新了很久了,基本覆盖到使用pandas处理日常业务以及常规的数据分析方方面面的问题。从基础的数据结构逐步入门到处理各类数据以及专业的pandas常用函数讲解都花费了大量时间和心思创作,如果大家有需要从事数据分析或者大数据开发的朋友推荐订阅专栏,将在第一时间学习到Pandas数据分析最实用常用的知识。此篇博客篇幅较长,涉及到处理文本数据(str/object)等各类操作,值得细读实践一番,我会将Pandas的精华部分挑出细讲实践。博主会长期维护博文,有错误或者疑惑可以在评论区指出,感谢大家的支持。


一、拆分和替换字符串


拆分split()


拆分字符串我们一般回用到split这个函数,使用起来非常方便:


s2 = pd.Series(["a_b_c", "c_d_e", np.nan, "f_g_h"], dtype="string")
s2.str.split("_")

489eb496ae444a298df8afd2ed651af4.png


拆分后获取get()


拆分后数据将还是数组类型,因此使用get或者索引方法获取就好了。需要注意的是大体上还是series类型:


s2.str.split("_").str.get(0)

ecf8326b84084710bb58897772715f6d.png

s2.str.split("_").str[0]

dc2c8ba49a324b4494d67d15d467bcb2.png


多维转换


而且我们可以扩展拆分之后的数据,形成多维数据:


s2.str.split("_", expand=True)


f5781d99cfb546db8146c57a95880689.png


当原始序列具有StringDtype时,输出列也将是StringDtype类型。

也可以限制拆分的数量:


s2.str.rsplit("_", expand=True, n=1)


65909f6595ea45699c1c04b4bf8367ac.png


替换replace()


替换的话可以使用正则也可以使用replace,复杂的话还是正则更好,常规使用replace就好了。


我们先创建测试用例:


s3 = pd.Series(
    ["A", "B", "C", "Aaba", "Baca", "", np.nan, "CABA", "dog", "cat"],
    dtype="string",
)
s3

d2c443bb139d4df69cdcb2da35d7681d.png


之后使用replace中正则替换就好:


s3.str.replace("^.a|dog", "XX-XX ", case=False, regex=True)


a7e768b04263459a837e2247764bfddd.png

如果希望字符串的文字替换(相当于str.replace()),可以将可选的正则表达式参数设置为False,而不是转义每个字符。在这种情况下,pat和repl都必须是字符串:

dark_souls = pd.Series(["Yorm", "&attack", "&100"], dtype="string")
dark_souls


5ea8adad9ea34cfbbf0ca88852229d5a.png

dark_souls.str.replace(r'\&','-',regex=True)

03ade74ee139475d89f4c901bdefb1a8.png

dark_souls.str.replace('&','-',regex=False)

e8f8e5ce698846289a94363ea569acd8.png

replace方法还可以将可调用的自定义方法作为替换。使用re.sub()在每个pat上调用它。可调用函数可获一个位置参数(正则表达式对象)并返回一个字符串。


这里我们可以实现一个字符串颠倒转换:

pat = r"[a-z]+"
def repl(m):
    return m.group(0)[::-1]
pd.Series(["foo 123", "bar baz", np.nan], dtype="string").str.replace(
    pat, repl, regex=True
)

1e98d5a8e6774c8795b66a31822ebfba.png


若是对正则匹配不是很了解的可以去阅读一下博主另一篇文章:

Python正则表达式一文详解+实例代码展示


replace方法还接受来自re的已编译正则表达式对象,编译re.compile()作为模式。所有标志都应包含在编译的正则表达式对象中。

import re
regex_pat = re.compile(r"^.a|dog", flags=re.IGNORECASE)
s3.str.replace(regex_pat, "XX-XX ", regex=True)

199c397bd4b44cf5bdaa2cf1392778a1.png

使用编译的正则表达式对象调用替换时包含标志参数将引发ValueError。


s3.str.replace(regex_pat, 'XX-XX ', flags=re.IGNORECASE)

b0360fe0aea045cba0230ad0ecc5e567.png

removeprefix和removesuffix与str.removeprefix和str.removesuffix具有相同的效果,都可以将匹配出的字符串删除。


s = pd.Series(["str_foo", "str_bar", "no_prefix"])
s.str.removesuffix("_str")

这个方法只在3.9以上版本才有。


二、连接操作


基于cat(),resp。Index.str.cat的方法可以将序列或索引与自身或其他序列或索引连接起来。


串联Series


Series(或index)的值可以串联:


s = pd.Series(["a", "b", "c", "d"], dtype="string")
s.str.cat(sep=",")

24df90ba7803462ea463997d0b31d7db.png

如果未指定,分隔符的关键字sep默认为空字符串,sep=“”:


s.str.cat()


9ab275fd8ff34488a9e0a300fea5c5e4.png

默认情况下,忽略缺少的值。使用na_rep可以替换空值:


1. t = pd.Series(["a", "b", np.nan, "d"], dtype="string")
2. t.str.cat(sep=",")


2c1ec90c9d5043958969e58daee65495.png

t.str.cat(sep=",", na_rep="-")

1addf7708d5d4e27a3abe21c334817fb.png


串联list与Series


cat()的第一个参数可以是一个类似列表的对象,只要它匹配调用序列(或索引)的长度。


s.str.cat(["A", "B", "C", "D"])


任何一侧的缺失值也会导致结果中的缺失值,除非指定了na_rep:


s.str.cat(t)



54e7c2b724744f37943055c85d11d0df.png

s.str.cat(t, na_rep="-")

cc65c2fe1cc5417b89758d3b2a1e6bf7.png

串联array和Series


其他参数也可以是二维的。在这种情况下,行数必须与调用序列(或索引)的长度匹配。

我们先可以concat连接一下两个series,不了解concat的推荐去看博主另一篇博文:

DataFrame多表合并拼接函数concat、merge参数详解+代码操作展示_fanstuck的博客-CSDN博客_dataframe merge函数


d = pd.concat([t, s], axis=1)


合并操作可以将DataFrame的列数据全都合并拼接。


s.str.cat(d, na_rep="-")

8c413dd373ba4a228f3c69756eb79862.png

索引自动拼接


对于串联series或dataframe,可以通过设置join关键字在串联之前对齐索引。


u = pd.Series(["b", "d", "a", "c"], index=[1, 3, 0, 2], dtype="string")


a7f893adda4246e4b317c4f2c802a3b4.png

s.str.cat(u)

d692660c55294cb9b4c096ead87c7742.png

s.str.cat(u, join="left")


ad0b8407235c4c43bda9abd028e05c45.png

如果没有传递join关键字,方法cat()当前将返回到版本0.23.0之前的行为(即没有对齐),但如果任何涉及的索引不同,则将发出警告,因为在将来的版本中,此默认值将更改为join='left'。


join参数的常用选项是('left','outer','inner','right')。


v = pd.Series(["z", "a", "b", "d", "e"], index=[-1, 0, 1, 3, 4], dtype="string")
v

25a0e1109a8f40999e21db60dca016cb.png

我们与s进行合并测试:


s

a50799c6f8d443b7b3b33b45bb315a00.png

s.str.cat(v, join="right", na_rep="-")

03667a079ef9444480148936a5dbc324.png

s.str.cat(v, join="outer", na_rep="-")

88fa5c727bb5433abe8f32f0745511ca.png

同样可适用于DataFrame:


1. f = d.loc[[3, 2, 1, 0], :]
2. f


1646402fd88d4c078b44981a693053fc.png


与s进行合并拼接:


s.str.cat(f, join="left", na_rep="-")


eb1ed70a85f04c059da6760a9b72ccff.png

多对象串联拼接


几个类似数组的项(特别是:系列、索引和np.ndarray的一维变体)可以组合在类似列表的容器中(包括迭代器、dict视图等)。


s.str.cat([u, u.to_numpy()], join="left")

88d9d680a33c4d8496a38fe51c03a012.png


传递的列表中没有索引(例如np.ndarray)的所有元素都必须在长度上与调用序列(或索引)匹配,但序列和索引可以具有任意长度(只要不使用join=None禁用对齐):


s.str.cat([v, u, u.to_numpy()], join="outer", na_rep="-")

1ada1a982c7a4be3a80b05ad2c064711.png

如果在包含不同索引的列表中使用join='right',则这些索引的并集将用作最终连接的基础:


s.str.cat([u.loc[[3]], v.loc[[-1, 0]]], join="right", na_rep="-")


09d2a997fb0f43b6817fb5087d53c02a.png


str[]索引


您可以使用[]符号直接按位置位置索引。如果索引超过字符串的结尾,结果将是NaN。

s = pd.Series(
    ["A", "B", "C", "Aaba", "Baca", np.nan, "CABA", "dog", "cat"], dtype="string"
)
s.str[0]

5a24618e69044771b00c68dd16254f03.png

s.str[1]

c7c20361e534490bbcfeeb069cd867ce.png

目录
相关文章
|
12天前
|
数据可视化 前端开发 数据挖掘
R语言对综合社会调查GSS数据进行自举法bootstrap统计推断、假设检验、探索性数据分析可视化|数据分享(上)
R语言对综合社会调查GSS数据进行自举法bootstrap统计推断、假设检验、探索性数据分析可视化|数据分享
|
2天前
|
数据采集 数据可视化 数据挖掘
如何利用Python中的Pandas库进行数据分析和可视化
Python的Pandas库是一种功能强大的工具,可以用于数据分析和处理。本文将介绍如何使用Pandas库进行数据分析和可视化,包括数据导入、清洗、转换以及基本的统计分析和图表绘制。通过学习本文,读者将能够掌握利用Python中的Pandas库进行高效数据处理和可视化的技能。
|
5天前
|
数据采集 数据可视化 数据挖掘
Python 与 PySpark数据分析实战指南:解锁数据洞见
Python 与 PySpark数据分析实战指南:解锁数据洞见
|
7天前
|
SQL 数据采集 存储
Hive实战 —— 电商数据分析(全流程详解 真实数据)
关于基于小型数据的Hive数仓构建实战,目的是通过分析某零售企业的门店数据来进行业务洞察。内容涵盖了数据清洗、数据分析和Hive表的创建。项目需求包括客户画像、消费统计、资源利用率、特征人群定位和数据可视化。数据源包括Customer、Transaction、Store和Review四张表,涉及多个维度的聚合和分析,如按性别、国家统计客户、按时间段计算总收入等。项目执行需先下载数据和配置Zeppelin环境,然后通过Hive进行数据清洗、建表和分析。在建表过程中,涉及ODS、DWD、DWT、DWS和DM五层,每层都有其特定的任务和粒度。最后,通过Hive SQL进行各种业务指标的计算和分析。
26 1
Hive实战 —— 电商数据分析(全流程详解 真实数据)
|
12天前
|
前端开发 数据可视化 数据挖掘
R语言对综合社会调查GSS数据进行自举法bootstrap统计推断、假设检验、探索性数据分析可视化|数据分享(下)
R语言对综合社会调查GSS数据进行自举法bootstrap统计推断、假设检验、探索性数据分析可视化|数据分享
|
13天前
|
数据采集 SQL 数据挖掘
Python数据分析中的Pandas库应用指南
在数据科学和分析领域,Python语言已经成为了一种非常流行的工具。本文将介绍Python中的Pandas库,该库提供了强大的数据结构和数据分析工具,使得数据处理变得更加简单高效。通过详细的示例和应用指南,读者将了解到如何使用Pandas库进行数据加载、清洗、转换和分析,从而提升数据处理的效率和准确性。
|
13天前
|
数据可视化 数据挖掘 C++
数据分析综合案例讲解,一文搞懂Numpy,pandas,matplotlib,seaborn技巧方法
数据分析综合案例讲解,一文搞懂Numpy,pandas,matplotlib,seaborn技巧方法
|
13天前
|
算法 数据挖掘 数据处理
数据分析Pandas之Series,快速上手
数据分析Pandas之Series,快速上手
|
14天前
|
数据采集 机器学习/深度学习 数据可视化
Pandas在数据分析中有广泛的应用场景
Pandas是数据分析利器,适用于数据清洗(处理缺失值、重复项、异常值)、探索分析(统计量、图表)、预处理(特征提取、编码、选择)、建模(线性回归、聚类等)及可视化,与Matplotlib等库配合提升效率。
9 1
|
14天前
|
数据处理 Python
Pandas在数据分析中的应用案例
使用Pandas分析销售数据,通过`read_csv`读取CSV,`groupby`按产品类别分组并应用`agg`计算类别总销售额、平均价和销售量。之后,利用`sort_values`按销售额降序排列,`head`获取前5高销售额类别。示例代码展示了Pandas在数据处理和分析中的高效性。
25 0