Python本地文件合并(csv)

简介: 本篇博客的文件合并主要是针对.csv的文件合并。关于文件合并的一些数据,我会放在我的gitee里面,是关于新冠疫情的数据整理,需要的可以自行获取:covid19数据整理

注:

  1. 本篇博客的文件合并主要是针对.csv的文件合并。
  2. 关于文件合并的一些数据,我会放在我的gitee里面,是关于新冠疫情的数据整理,需要的可以自行获取:covid19数据整理

c047bb82253a4b6a801f175a33b7798e.png


一、单文件之间合并



首先,要查询目录底下的文件要导入OS。并且我们要将.csv文件以pandas的dataframe底下,因此要导入PANDAS,另外由于我们要遍历目录,因此导入 GLOB:


import os
import pandas as pd 
import glob

注:

  1. import os的作用:在python环境下对文件,文件夹执行操作的一个模块。
os.name返回当前系统
os.getcwd()返回当前的路径
os.remove(路径)删除路径下的文件
  1. import glob的作用: glob是python自带的一个操作文件的相关模块,由于模块功能比较少,所以很容易掌握。用它可以查找符合特定规则的文件路径名。使用该模块查找文件,只需要用到: “*”, “?”, “[]”这三个匹配符;
”*”匹配0个或多个字符;
”?”匹配单个字符;
”[]”匹配指定范围内的字符,如:[0-9]匹配数字。
f1=open('../input/covid19temp/2020/12-30-2020.csv').read()
f2=open('../input/covid19temp/2020/12-31-2020.csv').read()
with open('f1112.csv','a+') as f:
    f.write('\n'+f1)
    f.write('\n'+f2)

73ca89f3d2094bc088e9baa1792fdffb.png

合并完成之后就会多出一个f1112.csv文件:

3c0efbe7e6594bf8adc7076f3633ee4e.png

然而打开f1112.csv后发现合并后的文件有一些脏数据没有整理:

c19fda8fa2ee45fb93c3652755ce29c3.png

这时候我们试试skiprows:


在读取文件的时候设置skiprows参数的值,设置为1,会跳过一行,这里是要将第二个文件的索引属性给去掉,因为已经和第一个文件合并了,而第一个文件有索引属性了。

f1=pd.read_csv('../input/covid19temp/2020/12-30-2020.csv')
f2=pd.read_csv('../input/covid19temp/2020/12-31-2020.csv',skiprows=1)
f1112=f1.append(f2)
f1112.to_csv('f1112.csv') # 导出该文件

82a55a86142f41f1a48b742d133fe3fd.png

在本地目录中打开该文件:

b994d726879c40cf8090f9770a2397bd.png

8908e1582f854b43821dae246f698d03.png


二、单个文件夹底下多个文件合并



csv_list=glob.glob('../input/covid19temp/2020/*.csv') 
# 如果不加上*的话拿到的就是目录的名称,如果加上*,拿到的就是完整的目录数据
print(csv_list)

0f16667e2403489eb3209cffca6a0cf3.png

for i in csv_list:  
    fr=open(i,'r').read()
    with open('2020csvdata.csv','a') as f:
        f.write(fr)
    f.close()
print('数据文件合并完成!')

4dcb007ca5e24e3d8b9c877623a2ee17.png

3ef935fd56fb4efcbd06ee8f1238976a.pngd395f56d1b1e46f7832187e4db5840e9.png


csv_list=glob.glob('../input/covid19temp/2020/*')
for i in csv_list:
    fr=open(i,'rb').read()
    with open('2020csvdata2.csv','ab') as f:
        f.write(fr)
    f.close()
print('数据文件合并完成!')

1d7f831b4acc4501a4936403e81f96af.png

csv_list=glob.glob('../input/covid19temp/2020/*')
csvdatadf=pd.DataFrame()
for i in csv_list:
    csvdata=pd.read_csv(i)
    csvdatadf=csvdatadf.append(csvdata)
print('数据文件合并完成!')

合并之后使用pd.read_csv读取文件数据,一共有20W+的疫情数据记录:

a022bb1452964ac88dd4678785788a40.png


三、多个文件夹底下多个文件合并



import os
import pandas as pd 
import glob
import openpyxl
import numpy as np
path='../input/covid19temp' # 写的路径
csv_lists=[] # 该列表的作用
# 是否更新目录判断:
if os.path.isdir(path): #使用os.path.isdir判断path是否是路径
    if not path.endswith("/"):# 如果该路径的最后没有加上'/'的话,会帮忙加一个/
        path+="/"
        print(path)

3a85b087327940e1b052d7c47ba5e7c1.png

如上图所示,路径后面多了一个 ‘/’,否则路径会找不到

文件操作:

  1. os.listdir(): 列出路径下所有的文件
  2. os.path.join(): 连接文件的作用
  3. os.path.isdir(): 判断是否是文件夹
import os
import pandas as pd 
import glob
import openpyxl
import numpy as np
path='../input/covid19temp' # 写的路径
csv_lists=[] # 该列表的作用
# 是否更新目录判断:
if os.path.isdir(path): #使用os.path.isdir判断path是否是路径
    if not path.endswith("/"):# 如果该路径的最后没有加上'/'的话,会帮忙加一个/
        path+="/"
        print(path)
        for each in os.listdir(path):# os.listdir(): 列出路径下所有的文件
            print(each)

4d4222ae41dc42908d86fc465fcee274.png04351a076ed04a35a89d3f873f762c6a.png


import os
import pandas as pd 
import glob
import openpyxl
import numpy as np
path='../input/covid19temp' # 写的路径
csv_lists=[] # 该列表的作用
# 是否更新目录判断:
if os.path.isdir(path): #使用os.path.isdir判断path是否是路径
    if not path.endswith("/"):# 如果该路径的最后没有加上'/'的话,会帮忙加一个/
        path+="/"
        print(path)
        for each in os.listdir(path):# os.listdir(): 列出路径下所有的文件
            print(each)
            sub_path=path+each
            path_list=[]
            if os.path.isdir(sub_path):
                path_list.append(sub_path)
                csv_lists.append(path_list) # 生成主目录下路径列表(非文件)
# 根据路径进行路径下文件列表的生成
csvlists=[]
for i in range(len(csv_lists)):
#    print(i)
    csvlists.append(glob.glob(csv_lists[i][0]+'/*.csv')) 
csvlists
# 获取每年的文件路径
csvfilelist=[]
for j in range(len(csvlists)):
    for k in csvlists[j]:
        csvfilelist.append(k)
csvfilelist
csvdatadf=pd.DataFrame()
for m in csvfilelist:
    filesize=os.path.getsize(m)
    if filesize>0:
        csvdata=pd.read_csv(m)
        csvdatadf=csvdatadf.append(csvdata)
    else:
        continue
print('数据合并完成')


四、多文件夹[函数递归]



import os 
import pandas as pd 
def mergeFiles(parent,path="",pathdeep=0):
    fileAbsPath=os.path.join(parent,path)
    if os.path.isdir(fileAbsPath)==True:
        if (pathdeep!=0 and('.ipynb_checkpoints' not in str(fileAbsPath))):
            print('=='+path)
        for filename2 in os.listdir(fileAbsPath):
            mergeFiles(fileAbsPath,filename2,pathdeep=pathdeep+1)
    else:
        print(path)
path=input("请输入需要的文件注主目录:")
mergeFiles(path)

6f39589cef4f42f783b5291136d14b27.png


相关文章
|
11天前
|
机器学习/深度学习 存储 算法
解锁文件共享软件背后基于 Python 的二叉搜索树算法密码
文件共享软件在数字化时代扮演着连接全球用户、促进知识与数据交流的重要角色。二叉搜索树作为一种高效的数据结构,通过有序存储和快速检索文件,极大提升了文件共享平台的性能。它依据文件名或时间戳等关键属性排序,支持高效插入、删除和查找操作,显著优化用户体验。本文还展示了用Python实现的简单二叉搜索树代码,帮助理解其工作原理,并展望了该算法在分布式计算和机器学习领域的未来应用前景。
|
21天前
|
监控 网络安全 开发者
Python中的Paramiko与FTP文件夹及文件检测技巧
通过使用 Paramiko 和 FTP 库,开发者可以方便地检测远程服务器上的文件和文件夹是否存在。Paramiko 提供了通过 SSH 协议进行远程文件管理的能力,而 `ftplib` 则提供了通过 FTP 协议进行文件传输和管理的功能。通过理解和应用这些工具,您可以更加高效地管理和监控远程服务器上的文件系统。
51 20
|
27天前
|
存储 数据采集 数据处理
如何在Python中高效地读写大型文件?
大家好,我是V哥。上一篇介绍了Python文件读写操作,今天聊聊如何高效处理大型文件。主要方法包括:逐行读取、分块读取、内存映射(mmap)、pandas分块处理CSV、numpy处理二进制文件、itertools迭代处理及linecache逐行读取。这些方法能有效节省内存,提升效率。关注威哥爱编程,学习更多Python技巧。
|
28天前
|
存储 JSON 对象存储
如何使用 Python 进行文件读写操作?
大家好,我是V哥。本文介绍Python中文件读写操作的方法,包括文件读取、写入、追加、二进制模式、JSON、CSV和Pandas模块的使用,以及对象序列化与反序列化。通过这些方法,你可以根据不同的文件类型和需求,灵活选择合适的方式进行操作。希望对正在学习Python的小伙伴们有所帮助。欢迎关注威哥爱编程,全栈路上我们并肩前行。
|
1月前
|
存储 算法 Serverless
剖析文件共享工具背后的Python哈希表算法奥秘
在数字化时代,文件共享工具不可或缺。哈希表算法通过将文件名或哈希值映射到存储位置,实现快速检索与高效管理。Python中的哈希表可用于创建简易文件索引,支持快速插入和查找文件路径。哈希表不仅提升了文件定位速度,还优化了存储管理和多节点数据一致性,确保文件共享工具高效运行,满足多用户并发需求,推动文件共享领域向更高效、便捷的方向发展。
|
2月前
|
计算机视觉 Python
如何使用Python将TS文件转换为MP4
本文介绍了如何使用Python和FFmpeg将TS文件转换为MP4文件。首先需要安装Python和FFmpeg,然后通过`subprocess`模块调用FFmpeg命令,实现文件格式的转换。代码示例展示了具体的操作步骤,包括检查文件存在性、构建FFmpeg命令和执行转换过程。
76 7
|
4月前
|
自然语言处理 数据处理 Python
python操作和解析ppt文件 | python小知识
本文将带你从零开始,了解PPT解析的工具、工作原理以及常用的基本操作,并提供具体的代码示例和必要的说明【10月更文挑战第4天】
678 60
|
4月前
|
安全 Linux 数据安全/隐私保护
python知识点100篇系列(15)-加密python源代码为pyd文件
【10月更文挑战第5天】为了保护Python源码不被查看,可将其编译成二进制文件(Windows下为.pyd,Linux下为.so)。以Python3.8为例,通过Cython工具,先写好Python代码并加入`# cython: language_level=3`指令,安装easycython库后,使用`easycython *.py`命令编译源文件,最终生成.pyd文件供直接导入使用。
146 3
python知识点100篇系列(15)-加密python源代码为pyd文件
|
4月前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
268 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
4月前
|
Linux 区块链 Python
Python实用记录(十三):python脚本打包exe文件并运行
这篇文章介绍了如何使用PyInstaller将Python脚本打包成可执行文件(exe),并提供了详细的步骤和注意事项。
185 1
Python实用记录(十三):python脚本打包exe文件并运行

热门文章

最新文章

推荐镜像

更多