6000字 “保姆级” 教程 | 讲述Pandas库的数据读取、数据获取、数据拼接、数据写出!(二)

简介: 6000字 “保姆级” 教程 | 讲述Pandas库的数据读取、数据获取、数据拼接、数据写出!(二)

② 访问一列或多列

“访问一列或多列”,相对来说比较容易,直接采用中括号“标签数组”的方式,就可以获取到一列或多列。


方法1:访问一列


df["武汉"]


方法2:访问多列


df[["武汉","广水"]]


③ 访问一行或多行

“访问一行或多行”,方法就比较多了,因此特别容易出错,因此需要特别注意。


方法1:访问一行


# 位置索引
df.iloc[0]
# 标签索引
df.loc["地区1"]


方法2:访问多行


# 位置索引
df.iloc[[0,1,3]]
# 标签索引
df.loc[["地区1","地区2","地区4"]]


④ 访问单元格中某个值

“访问单元格中某个值”,也有很多种方式,既可以使用“位置索引”,也可以使用“标签索引”。


# 使用位置索引
df.iloc[2,1]
# 使用标签索引
df.loc["地区3","天门"]


⑤ 访问多行多列

“访问多行多列”,方法就更多了。我一共为大家总结了5种方法。第一,iloc+切片;第二种,loc+标签数组;第三种,iloc+切片+位置数组;第四种,loc+切片+标签数组。


方法1:iloc+切片


# 选取前3行数据的所有列
df.iloc[:3,:]


方法2:loc+标签数组


# 选取地区1和地区3这两行的武汉、孝感、广水列
df.loc[["地区1","地区3"],['武汉','孝感','广水']]


方法3:iloc+切片+位置数组


# 选取所有行的第2和第5列数据
df.iloc[:,[1,4]]


方法4:loc+切片+标签数组


# 选取地区1和地区2这两行的武汉和广水列
df.loc[:"地区2":,["武汉","广水"]]

4. Excel数据的拼接

在进行多张表合并的时候,我们需要将多张表的数据,进行纵向(上下)拼接。在pandas中,直接使用pd.concat()函数,就可以完成表的纵向合并。


关于pd.concat()函数,用法其实很简单,里面有一个参数ignore_index需要我们注意,ignore_index=True,表示会忽略原始索引,生成一组新的索引。


如果不使用ignore_index参数


df1 = pd.read_excel("concat.xlsx",sheet_name="Sheet1")
df2 = pd.read_excel("concat.xlsx",sheet_name="Sheet2")
pd.concat([df1,df2],ignore_index=True)


结果如下:

image.png

从上表可以看到,里面有两条记录是完全重复的,我们直接可以再调用drop_duplicates()函数,实现去重操作。


df1 = pd.read_excel("concat.xlsx",sheet_name="Sheet1")
df2 = pd.read_excel("concat.xlsx",sheet_name="Sheet2")
pd.concat([df1,df2],ignore_index=True).drop_duplicates()


结果如下:


image.png

5. Excel数据写出

当我们将某个Excel文件中的表,进行读取、数据整理等一系列操作后,就需要将处理好的数据,导出到本地。其实Pandas库中可以导出的数据格式有很多种,我们同样以导出xlsx文件为例,进行讲述。


在Pandas库中,将数据导出为xlsx格式,使用的是DataFrame对象的to_excle()方法,其中这里面有4个常用的参数,详情如下。


excel_writer:表示数据写到哪里去,可以是一个路径,也可以是一个ExcelWriter对象。

sheet_name:设置导出到本地的Excel文件的Sheet名称。

index:新导出到本地的文件,默认是有一个从0开始的索引列,设置index=False可以去掉这个索引列。

columns:选则指定列导出,默认情况是导出所有列。

encoding:有时候导出的文件会出现乱码的格式,这个时候就需要使用该参数设置文件编码格式。

df1 = pd.read_excel("concat.xlsx",sheet_name="Sheet1")
df2 = pd.read_excel("concat.xlsx",sheet_name="Sheet2")
df3 = pd.concat([df1,df2],ignore_index=True)
df3.to_excel(excel_writer="to_excel.xlsx",sheet_name="to_excel",index=None)

6. ExcelWriter的使用

有时候我们需要将多excel表写入同一个工作簿,这个时候就需要借助Pandas中的pd.ExcelWriter()对象,默认对于xls使用xlwt引擎,对于xlsx使用openpyxl引擎。


这里面有两个参数,一个是路径参数Path,表示生成文件的存放路径,一个是时间格式化参数datetime_format,可以将生成文件中的时间列,按照指定时间格式化输出。


df1 = pd.read_excel("concat.xlsx",sheet_name="Sheet1")
df2 = pd.read_excel("concat.xlsx",sheet_name="Sheet2")
with pd.ExcelWriter("excel_writer.xlsx",datetime_format="YYYY-MM-DD") as writer:
    df1.to_excel(excel_writer=writer,sheet_name="df1",index=None)
    df2.to_excel(excel_writer=writer,sheet_name="df2",index=None)


上面第三行代码,我们打开了一个ExcelWriter对象的同时,将所有设计到时间列的数据,进行格式化输出为年-月-日。


接着第四行代码,我们将df1中的数据写到这个ExcelWriter对象中,将这个Sheet取名为df1。


最后第五行代码,再将df2中的数据写入到这个ExcelWriter对象中,同样将Sheet取名为df1。


相关文章
|
1月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
292 0
|
6月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
565 13
Pandas数据合并:10种高效连接技巧与常见问题
|
9月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
182 12
|
9月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
192 17
|
9月前
|
数据采集 存储 数据可视化
Pandas高级数据处理:数据报告生成
Pandas 是数据分析领域不可或缺的工具,支持多种文件格式的数据读取与写入、数据清洗、筛选与过滤。本文从基础到高级,介绍如何使用 Pandas 进行数据处理,并解决常见问题和报错,如数据类型不一致、时间格式解析错误、内存不足等。最后,通过数据汇总、可视化和报告导出,生成专业的数据报告,帮助你在实际工作中更加高效地处理数据。
255 8
|
1月前
|
Java 数据处理 索引
(Pandas)Python做数据处理必选框架之一!(二):附带案例分析;刨析DataFrame结构和其属性;学会访问具体元素;判断元素是否存在;元素求和、求标准值、方差、去重、删除、排序...
DataFrame结构 每一列都属于Series类型,不同列之间数据类型可以不一样,但同一列的值类型必须一致。 DataFrame拥有一个总的 idx记录列,该列记录了每一行的索引 在DataFrame中,若列之间的元素个数不匹配,且使用Series填充时,在DataFrame里空值会显示为NaN;当列之间元素个数不匹配,并且不使用Series填充,会报错。在指定了index 属性显示情况下,会按照index的位置进行排序,默认是 [0,1,2,3,...] 从0索引开始正序排序行。
180 0
|
3月前
|
存储 数据采集 数据处理
Pandas与NumPy:Python数据处理的双剑合璧
Pandas与NumPy是Python数据科学的核心工具。NumPy以高效的多维数组支持数值计算,适用于大规模矩阵运算;Pandas则提供灵活的DataFrame结构,擅长处理表格型数据与缺失值。二者在性能与功能上各具优势,协同构建现代数据分析的技术基石。
294 0
|
机器学习/深度学习 数据处理 Python
从NumPy到Pandas:轻松转换Python数值库与数据处理利器
从NumPy到Pandas:轻松转换Python数值库与数据处理利器
306 1
|
数据采集 存储 数据挖掘
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第27天】在数据分析领域,Python的Pandas库因其强大的数据处理能力而备受青睐。本文介绍了Pandas在数据导入、清洗、转换、聚合、时间序列分析和数据合并等方面的高效技巧,帮助数据分析师快速处理复杂数据集,提高工作效率。
340 0
|
存储 数据挖掘 数据处理
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第26天】Python 是数据分析领域的热门语言,Pandas 库以其高效的数据处理功能成为数据科学家的利器。本文介绍 Pandas 在数据读取、筛选、分组、转换和合并等方面的高效技巧,并通过示例代码展示其实际应用。
259 2

热门文章

最新文章