Python:数据写入读取和处理

简介: 文章目录前言数据的写入读取1.CSV数据写入2.CSV数据的读取3.Excel数据的读取数据的处理1.删除数据2.空值的处理3.重复数据的处理

前言

对于数据的处理很杂,所以在这里整理了一下

数据的写入读取

在做数据分析的时候,Excel是我们最常用的工具,但是当数据量比较大的时,Excel光把数据文件打开就要很久很久,那么利用Pandas就会非常高效。

我们先来看看CSV的写入

1.CSV数据写入

csv是最为常见的以纯文本文件存储数据文件的格式,它的优点是通用性很强,不受操作系统以及具体的软件的限制。我们以写入csv为例,看一下pandas是如何是将数据写入csv文件中。

from pandas import Series,DataFrame
# 使用字典创建
index_list = ['001','002','003','004','005','006','007','008']
name_list = ['李白','王昭君','诸葛亮','狄仁杰','孙尚香','妲己','周瑜','张飞']
age_list = [25,28,27,25,30,29,25,32]
salary_list = ['10k','12.5k','20k','14k','12k','17k','18k','21k']
marital_list = ['NO','NO','YES','YES','NO','NO','NO','YES']
dic={
    '姓名': Series(data=name_list,index=index_list),
    '年龄': Series(data=age_list,index=index_list),
    '薪资': Series(data=salary_list,index=index_list),
    '婚姻状况': Series(data=marital_list,index=index_list)
    }
df=DataFrame(dic) 
print(df)
# 写入csv,path_or_buf为写入文本文件
df.to_csv(path_or_buf='./People_Information.csv', encoding='utf_8_sig')
# index = False,就可以不储存DataFrame的行索引信息
print('end')

✨运行效果

      姓名  年龄     薪资 婚姻状况
001   李白  25    10k   NO
002  王昭君  28  12.5k   NO
003  诸葛亮  27    20k  YES
004  狄仁杰  25    14k  YES
005  孙尚香  30    12k   NO
006   妲己  29    17k   NO
007   周瑜  25    18k   NO
008   张飞  32    21k  YES
end

在上面的代码里,我们创建了一个DataFrame,接着通过to_csv()方法将DataFrame保存为csv文件。

从结果中可以发现,to_csv()保存数据时,df的行索引作为一列被输出到csv文件中。

如何在保存csv文件的时候,不存储DataFrame的行索引信息呢,我们看下面的解决方法。

df.to_csv(path_or_buf='路径',index=False,encoding='utf_8_sig')

在to_csv方法中将参数index设置为False就可以不存储DataFrame的行索引信息。

还有如何避免乱码呢,在encoding参数设置“utf_8_sig”后乱码就会消失。

2.CSV数据的读取

数据的存储我们发现很简单,调用to_csv()后设置文件存储路径后就可以了。将自己保存的文件路径放进去就行了

import pandas as pd
df = pd.read_csv('D:\jupy\People_Information.csv',header=0)
# read_csv()默认会将文件中的第一行作为数据的列索引。
# 可以将header设置为None,列索引值会使用默认的1、2、3、4
print(df)
print(df.shape)
   Unnamed: 0   姓名  年龄     薪资 婚姻状况
0           1   李白  25    10k   NO
1           2  王昭君  28  12.5k   NO
2           3  诸葛亮  27    20k  YES
3           4  狄仁杰  25    14k  YES
4           5  孙尚香  30    12k   NO
5           6   妲己  29    17k   NO
6           7   周瑜  25    18k   NO
7           8   张飞  32    21k  YES
8           9  王昭君  28    22k   NO
9          10   大乔  26  21.5k  YES
(10, 5)

从图中可以看出来,还可以看出,read_csv()默认会将文件中的第一行作为数据的列索引。

如果第一行不是我们要的索引值,那咋办哪呢?当然这个问题,是有解决方法的,read_csv()的header参数默认是0,取第一行的值,可以根据具体的要求设置header的值来确定列索引。

import pandas as pd
people = pd.read_csv('路径',header = 1)
print(people.head())

3.Excel数据的读取

Excel文件的读取和csv的读取方式相似,read_csv()读取csv文件,read_excel()读取Excel文件。

import pandas as pd
sheet = pd.read_excel('路径.xlsx')
print(sheet.head())

但是还是有差别的,一个Excel文件可以创建多个表,然后在不同的表中存储不同数据,这种形式的文件很常见。但是要注意csv文件不存在多个sheet的问题。

import pandas as pd
sheet1 = pd.read_excel('路径.xlsx',sheet_name='sheet1')
print(sheet1.head())
sheet2 = pd.read_excel('路径.xlsx',sheet_name='sheet2')
print(sheet2.head())
# to_csv()会比to_excel()少一个sheet_name的参数

在上面的代码里,我们引入了带有两个表的sheet.xlsx的Excel文件,两个表名分别为’sheet1’,‘sheet2’,然后我们通过指定sheet_name的值,获取不同表中的数据。

数据的处理

在我们有能力去保存数据后,在日常工作中,肯定会有不需要的数据,也就是需要进行特殊处理的数据,这时候我们就需要具备进行数据处理的能力了

1.删除数据

在NumPy模块中提供了nan的值,如果你想要创建一个空值,可以使用下方代码:

from numpy import nan as NaN

而且需要注意的是,NaN比较特殊点就是其本身是一种float类型数据。

✨运行效果

当数据中出现了我们需要删除的数据时,比如:NaN,那NaN表示的是什么数据呢?

如果文件的单元格中没有值时,在使用pandas读取后就会用NaN表示,也就是我们常说的空值。

对于大批量的Series数据,使用肉眼很难判断空值的存在,这时我们可以先对空值进行过滤。

from numpy import nan as NaN
import pandas as pd
se=pd.Series([4,NaN,8,NaN,5])
print(se.notnull())
print(se[se.notnull()])
print(se)

✨运行效果

通过结果我们发现,结果中依然存在空值,并没有过滤掉空值。

所以在DataFrame类型数据中,一般我们会将存在NaN的数据使用dropna()方法全部删掉:

df1 = df.dropna()
from numpy import nan as NaN
import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','WangWu','ZhaoLiu'],
  'age':['18','20',NaN,'22'],
  'weight':['50',NaN,'60','80']
}
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
print(df)
df1 = df.dropna()
print(df1)

dropna()是删除空值数据的方法,默认将只要含有NaN的整行数据删掉,如果想要删除整行都是空值的数据需要添加how='all’参数。

✨运行效果

如果想要对列做删除操作,需要添加axis参数,axis=1表示列,axis=0表示行。

我们也可以使用thresh参数筛选想要删除的数据,thresh=n保留至少有n个非NaN数据的行。大家可以自信心尝试

DataFrame.drop(labels=None,axis=0, index=None, columns=None, inplace=False)

代码解释:

axis=0列,=1为行 labels :就是要删除的行列的名字,用列表给定。 index: 直接指定要删除的行。

columns: 直接指定要删除的列。

inplace=False:默认该删除操作不改变原数据,而是返回一个执行删除操作后的新dataframe。

inplace=True:则会直接在原数据上进行删除操作,删除后无法返回。

所以,根据参数我们可以总结出,删除行列有两种方式:

1.labels=None,axis=0 的组合
2.index或columns直接指定要删除的行或列

2.空值的处理

对于空值我们可以将整条数据删除,也可以使用fillna()方法对空值进行填充。

df.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)

注意:method参数不能与value参数同时出现。

import pandas as pd
df = pd.read_excel('date.xlsx')# 用常数填充fillna# 
print(df.fillna(0))# 用一列的平均值填充# 
print(df.fillna(df.mean())# 用前面的值来填ffillna
print(df.fillna(method='ffill', axis=0))

3.重复数据的处理

重复数据的存在有时不仅会降低分析的准确度,也会降低分析的效率。所以我们在整理数据的时候应该将重复的数据删除掉。

利用duplicated()函数可以返回每一行判断是否重复的结果(重复则为True)。

import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','WangWu','ZhaoLiu'],
  'age':['18','20','19','22'],
  'weight':['50','55','60','80']
}
print(df)
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
print(df.duplicated())

✨运行效果

通过结果我们发现,返回的是一个值为Bool类型的Series,如果当前行所有列的数据与前面的数据是重复的就返回True;反之,则返回False。

删除的话,可以使用drop_duplicates()函数将重复的数据行进行删除

df.drop_duplicates()

我们也可以只可以通过判断某一列的重复数据,然后进行删除

df.drop_duplicates(['Name'],inplace=False)

其中[‘Name’]表示对比Name例数据是否有重复,inplace用来控制是否直接对原始数据进行修改。

import pandas as pd
df_dict = {
  'name':['ZhangSan','LiSi','LiSi','ZhaoLiu'],
  'age':['18','20','19','22'],
  'weight':['50','55','60','80']
}
print(df)
df = pd.DataFrame(data=df_dict,index=['001','002','003','004'])
df1=df.drop_duplicates(['name'],inplace=False)
print(df1)

✨运行效果

相关文章
|
1月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
使用Python实现深度学习模型:智能数据隐私保护
使用Python实现深度学习模型:智能数据隐私保护 【10月更文挑战第3天】
103 0
|
29天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
14天前
|
图形学 Python
SciPy 空间数据2
凸包(Convex Hull)是计算几何中的概念,指包含给定点集的所有凸集的交集。可以通过 `ConvexHull()` 方法创建凸包。示例代码展示了如何使用 `scipy` 库和 `matplotlib` 绘制给定点集的凸包。
23 1
|
15天前
|
JSON 数据格式 索引
Python中序列化/反序列化JSON格式的数据
【11月更文挑战第4天】本文介绍了 Python 中使用 `json` 模块进行序列化和反序列化的操作。序列化是指将 Python 对象(如字典、列表)转换为 JSON 字符串,主要使用 `json.dumps` 方法。示例包括基本的字典和列表序列化,以及自定义类的序列化。反序列化则是将 JSON 字符串转换回 Python 对象,使用 `json.loads` 方法。文中还提供了具体的代码示例,展示了如何处理不同类型的 Python 对象。
|
15天前
|
数据采集 Web App开发 iOS开发
如何使用 Python 语言的正则表达式进行网页数据的爬取?
使用 Python 进行网页数据爬取的步骤包括:1. 安装必要库(requests、re、bs4);2. 发送 HTTP 请求获取网页内容;3. 使用正则表达式提取数据;4. 数据清洗和处理;5. 循环遍历多个页面。通过这些步骤,可以高效地从网页中提取所需信息。
|
1月前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
50 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
1月前
|
计算机视觉 Python
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
这篇文章介绍了如何使用Python的OpenCV库将多张图片合并为一张图片显示,以及如何使用matplotlib库从不同txt文档中读取数据并绘制多条折线图。
42 3
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
|
1月前
|
数据可视化 算法 Python
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
本文介绍了如何利用Python脚本结合动态模态分解(DMD)技术,分析从OpenFOAM模拟中提取的二维切片数据,以深入理解流体动力学现象。通过PyVista库处理VTK格式的模拟数据,进行POD和DMD分析,揭示流场中的主要能量结构及动态特征。此方法为研究复杂流动系统提供了有力工具。
73 2
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
|
27天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
54 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
1月前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
48 2
下一篇
无影云桌面