Python:数据写入读取和处理

简介: 文章目录前言数据的写入读取1.CSV数据写入2.CSV数据的读取3.Excel数据的读取数据的处理1.删除数据2.空值的处理3.重复数据的处理

前言

对于数据的处理很杂,所以在这里整理了一下

数据的写入读取

在做数据分析的时候,Excel是我们最常用的工具,但是当数据量比较大的时,Excel光把数据文件打开就要很久很久,那么利用Pandas就会非常高效。

我们先来看看CSV的写入

1.CSV数据写入

csv是最为常见的以纯文本文件存储数据文件的格式,它的优点是通用性很强,不受操作系统以及具体的软件的限制。我们以写入csv为例,看一下pandas是如何是将数据写入csv文件中。

from pandas import Series,DataFrame
# 使用字典创建
index_list = ['001','002','003','004','005','006','007','008']
name_list = ['李白','王昭君','诸葛亮','狄仁杰','孙尚香','妲己','周瑜','张飞']
age_list = [25,28,27,25,30,29,25,32]
salary_list = ['10k','12.5k','20k','14k','12k','17k','18k','21k']
marital_list = ['NO','NO','YES','YES','NO','NO','NO','YES']
dic={
    '姓名': Series(data=name_list,index=index_list),
    '年龄': Series(data=age_list,index=index_list),
    '薪资': Series(data=salary_list,index=index_list),
    '婚姻状况': Series(data=marital_list,index=index_list)
    }
df=DataFrame(dic) 
print(df)
# 写入csv,path_or_buf为写入文本文件
df.to_csv(path_or_buf='./People_Information.csv', encoding='utf_8_sig')
# index = False,就可以不储存DataFrame的行索引信息
print('end')

✨运行效果

      姓名  年龄     薪资 婚姻状况
001   李白  25    10k   NO
002  王昭君  28  12.5k   NO
003  诸葛亮  27    20k  YES
004  狄仁杰  25    14k  YES
005  孙尚香  30    12k   NO
006   妲己  29    17k   NO
007   周瑜  25    18k   NO
008   张飞  32    21k  YES
end

在上面的代码里,我们创建了一个DataFrame,接着通过to_csv()方法将DataFrame保存为csv文件。

从结果中可以发现,to_csv()保存数据时,df的行索引作为一列被输出到csv文件中。

如何在保存csv文件的时候,不存储DataFrame的行索引信息呢,我们看下面的解决方法。

df.to_csv(path_or_buf='路径',index=False,encoding='utf_8_sig')

在to_csv方法中将参数index设置为False就可以不存储DataFrame的行索引信息。

还有如何避免乱码呢,在encoding参数设置“utf_8_sig”后乱码就会消失。

2.CSV数据的读取

数据的存储我们发现很简单,调用to_csv()后设置文件存储路径后就可以了。将自己保存的文件路径放进去就行了

import pandas as pd
df = pd.read_csv('D:\jupy\People_Information.csv',header=0)
# read_csv()默认会将文件中的第一行作为数据的列索引。
# 可以将header设置为None,列索引值会使用默认的1、2、3、4
print(df)
print(df.shape)
   Unnamed: 0   姓名  年龄     薪资 婚姻状况
0           1   李白  25    10k   NO
1           2  王昭君  28  12.5k   NO
2           3  诸葛亮  27    20k  YES
3           4  狄仁杰  25    14k  YES
4           5  孙尚香  30    12k   NO
5           6   妲己  29    17k   NO
6           7   周瑜  25    18k   NO
7           8   张飞  32    21k  YES
8           9  王昭君  28    22k   NO
9          10   大乔  26  21.5k  YES
(10, 5)

从图中可以看出来,还可以看出,read_csv()默认会将文件中的第一行作为数据的列索引。

如果第一行不是我们要的索引值,那咋办哪呢?当然这个问题,是有解决方法的,read_csv()的header参数默认是0,取第一行的值,可以根据具体的要求设置header的值来确定列索引。

import pandas as pd
people = pd.read_csv('路径',header = 1)
print(people.head())

3.Excel数据的读取

Excel文件的读取和csv的读取方式相似,read_csv()读取csv文件,read_excel()读取Excel文件。

import pandas as pd
sheet = pd.read_excel('路径.xlsx')
print(sheet.head())

但是还是有差别的,一个Excel文件可以创建多个表,然后在不同的表中存储不同数据,这种形式的文件很常见。但是要注意csv文件不存在多个sheet的问题。

import pandas as pd
sheet1 = pd.read_excel('路径.xlsx',sheet_name='sheet1')
print(sheet1.head())
sheet2 = pd.read_excel('路径.xlsx',sheet_name='sheet2')
print(sheet2.head())
# to_csv()会比to_excel()少一个sheet_name的参数

在上面的代码里,我们引入了带有两个表的sheet.xlsx的Excel文件,两个表名分别为’sheet1’,‘sheet2’,然后我们通过指定sheet_name的值,获取不同表中的数据。

数据的处理

在我们有能力去保存数据后,在日常工作中,肯定会有不需要的数据,也就是需要进行特殊处理的数据,这时候我们就需要具备进行数据处理的能力了

1.删除数据

在NumPy模块中提供了nan的值,如果你想要创建一个空值,可以使用下方代码:

from numpy import nan as NaN

而且需要注意的是,NaN比较特殊点就是其本身是一种float类型数据。

✨运行效果

当数据中出现了我们需要删除的数据时,比如:NaN,那NaN表示的是什么数据呢?

如果文件的单元格中没有值时,在使用pandas读取后就会用NaN表示,也就是我们常说的空值。

对于大批量的Series数据,使用肉眼很难判断空值的存在,这时我们可以先对空值进行过滤。

from numpy import nan as NaN
import pandas as pd
se=pd.Series([4,NaN,8,NaN,5])
print(se.notnull())
print(se[se.notnull()])
print(se)

✨运行效果

通过结果我们发现,结果中依然存在空值,并没有过滤掉空值。

所以在DataFrame类型数据中,一般我们会将存在NaN的数据使用dropna()方法全部删掉:

df1 = df.dropna()
from numpy import nan as NaN
import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','WangWu','ZhaoLiu'],
  'age':['18','20',NaN,'22'],
  'weight':['50',NaN,'60','80']
}
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
print(df)
df1 = df.dropna()
print(df1)

dropna()是删除空值数据的方法,默认将只要含有NaN的整行数据删掉,如果想要删除整行都是空值的数据需要添加how='all’参数。

✨运行效果

如果想要对列做删除操作,需要添加axis参数,axis=1表示列,axis=0表示行。

我们也可以使用thresh参数筛选想要删除的数据,thresh=n保留至少有n个非NaN数据的行。大家可以自信心尝试

DataFrame.drop(labels=None,axis=0, index=None, columns=None, inplace=False)

代码解释:

axis=0列,=1为行 labels :就是要删除的行列的名字,用列表给定。 index: 直接指定要删除的行。

columns: 直接指定要删除的列。

inplace=False:默认该删除操作不改变原数据,而是返回一个执行删除操作后的新dataframe。

inplace=True:则会直接在原数据上进行删除操作,删除后无法返回。

所以,根据参数我们可以总结出,删除行列有两种方式:

1.labels=None,axis=0 的组合
2.index或columns直接指定要删除的行或列

2.空值的处理

对于空值我们可以将整条数据删除,也可以使用fillna()方法对空值进行填充。

df.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)

注意:method参数不能与value参数同时出现。

import pandas as pd
df = pd.read_excel('date.xlsx')# 用常数填充fillna# 
print(df.fillna(0))# 用一列的平均值填充# 
print(df.fillna(df.mean())# 用前面的值来填ffillna
print(df.fillna(method='ffill', axis=0))

3.重复数据的处理

重复数据的存在有时不仅会降低分析的准确度,也会降低分析的效率。所以我们在整理数据的时候应该将重复的数据删除掉。

利用duplicated()函数可以返回每一行判断是否重复的结果(重复则为True)。

import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','WangWu','ZhaoLiu'],
  'age':['18','20','19','22'],
  'weight':['50','55','60','80']
}
print(df)
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
print(df.duplicated())

✨运行效果

通过结果我们发现,返回的是一个值为Bool类型的Series,如果当前行所有列的数据与前面的数据是重复的就返回True;反之,则返回False。

删除的话,可以使用drop_duplicates()函数将重复的数据行进行删除

df.drop_duplicates()

我们也可以只可以通过判断某一列的重复数据,然后进行删除

df.drop_duplicates(['Name'],inplace=False)

其中[‘Name’]表示对比Name例数据是否有重复,inplace用来控制是否直接对原始数据进行修改。

import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','LiSi','ZhaoLiu'],
  'age':['18','20','19','22'],
  'weight':['50','55','60','80']
}
print(df)
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
df1=df.drop_duplicates(['name'],inplace=False)
print(df1)

✨运行效果

相关文章
|
2月前
|
JSON 算法 API
1688商品详情API实战:Python调用全流程与数据解析技巧
本文介绍了1688电商平台的商品详情API接口,助力电商从业者高效获取商品信息。接口可返回商品基础属性、价格体系、库存状态、图片描述及商家详情等多维度数据,支持全球化语言设置。通过Python示例代码展示了如何调用该接口,帮助用户快速上手,适用于选品分析、市场研究等场景。
|
3月前
|
数据采集 NoSQL 关系型数据库
Python爬虫去重策略:增量爬取与历史数据比对
Python爬虫去重策略:增量爬取与历史数据比对
|
4月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
125 4
|
5天前
|
缓存 监控 API
1688平台开放接口实战:如何通过API获取店铺所有商品数据(Python示列)
本文介绍如何通过1688开放平台API接口获取店铺所有商品,涵盖准备工作、接口调用及Python代码实现,适用于商品同步与数据监控场景。
|
11天前
|
存储 监控 算法
基于 Python 跳表算法的局域网网络监控软件动态数据索引优化策略研究
局域网网络监控软件需高效处理终端行为数据,跳表作为一种基于概率平衡的动态数据结构,具备高效的插入、删除与查询性能(平均时间复杂度为O(log n)),适用于高频数据写入和随机查询场景。本文深入解析跳表原理,探讨其在局域网监控中的适配性,并提供基于Python的完整实现方案,优化终端会话管理,提升系统响应性能。
32 4
|
2月前
|
Web App开发 数据采集 JavaScript
动态网页爬取:Python如何获取JS加载的数据?
动态网页爬取:Python如何获取JS加载的数据?
447 58
|
4月前
|
XML JSON API
淘宝商品详情API的调用流程(python请求示例以及json数据示例返回参考)
JSON数据示例:需要提供一个结构化的示例,展示商品详情可能包含的字段,如商品标题、价格、库存、描述、图片链接、卖家信息等。考虑到稳定性,示例应基于淘宝开放平台的标准响应格式。
|
2月前
|
人工智能 数据可视化 Python
在Python中对数据点进行标签化
本文介绍了如何在Python中使用Matplotlib和Seaborn对数据点进行标签化,提升数据可视化的信息量与可读性。通过散点图示例,展示了添加数据点标签的具体方法。标签化在标识数据点、分类数据可视化及趋势分析中具有重要作用。文章强调了根据需求选择合适工具,并保持图表清晰美观的重要性。
66 15
|
1月前
|
数据采集 Web App开发 JavaScript
Python爬虫解析动态网页:从渲染到数据提取
Python爬虫解析动态网页:从渲染到数据提取
|
2月前
|
供应链 API 开发者
1688 商品数据接口终极指南:Python 开发者如何高效获取标题 / 价格 / 销量数据(附调试工具推荐)
1688商品列表API是阿里巴巴开放平台提供的服务,允许开发者通过API获取1688平台的商品信息(标题、价格、销量等)。适用于电商选品、比价工具、供应链管理等场景。使用时需构造请求URL,携带参数(如q、start_price、end_price等),发送HTTP请求并解析返回的JSON/XML数据。示例代码展示了如何用Python调用该API获取商品列表。
139 18

热门文章

最新文章

推荐镜像

更多
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问