使用Python批量合并Excel文件的所有Sheet数据

简介: 使用Python批量合并Excel文件的所有Sheet数据

在数据处理和分析的过程中,经常需要将多个Excel文件中的数据进行合并。特别是当这些文件分散在多个子文件夹内,且每个文件又包含多个Sheet时,手动合并这些数据会是一项繁琐且易出错的任务。Python作为一种强大的编程语言,提供了多种库和工具,可以方便地实现这一需求。本文将介绍四种使用Python批量合并同一文件夹内所有子文件夹下的Excel文件内所有Sheet数据的方法,并提供详细的代码和案例。

一、使用pandas和os库进行合并

pandas是一个强大的数据处理库,而os库则提供了与操作系统交互的功能。通过这两个库,我们可以遍历文件夹和子文件夹,读取Excel文件,并将数据合并到一个DataFrame中。

案例与代码实现

假设我们有一个名为excel_files的文件夹,其中包含多个子文件夹,每个子文件夹内都有若干个Excel文件。

import os  
import pandas as pd  
  
# 定义主文件夹路径  
main_folder = 'excel_files'  
  
# 初始化一个空的DataFrame用于存储所有数据  
all_data = pd.DataFrame()  
  
# 遍历主文件夹下的所有子文件夹和文件  
for root, dirs, files in os.walk(main_folder):  
    for file in files:  
        if file.endswith('.xlsx') or file.endswith('.xls'):  # 确保是Excel文件  
            file_path = os.path.join(root, file)  # 构建文件的完整路径  
            # 读取Excel文件中的所有Sheet  
            xls = pd.ExcelFile(file_path)  
            for sheet_name in xls.sheet_names:  
                df = pd.read_excel(xls, sheet_name=sheet_name)  
                # 将每个Sheet的数据追加到all_data中  
                all_data = all_data.append(df, ignore_index=True)  
  
# 将合并后的数据保存到新的Excel文件中  
all_data.to_excel('merged_data.xlsx', index=False)

这段代码首先定义了主文件夹路径,并初始化一个空的DataFrame。然后,使用os.walk()函数遍历主文件夹及其所有子文件夹中的文件。对于每个Excel文件,使用pd.ExcelFile()读取文件,并通过sheet_names属性获取所有Sheet的名称。接着,使用pd.read_excel()函数逐个读取Sheet中的数据,并将其追加到all_data DataFrame中。最后,将合并后的数据保存到新的Excel文件中。

二、使用glob和pandas库进行合并

glob库提供了在文件夹中查找文件路径的功能,结合pandas可以更方便地处理Excel文件。

案例与代码实现

import glob  
import pandas as pd  
  
# 定义主文件夹路径和搜索模式  
main_folder = 'excel_files'  
pattern = '**/*.xlsx'  # 搜索所有子文件夹中的.xlsx文件  
  
# 使用glob查找所有Excel文件路径  
all_files = glob.glob(main_folder + '/' + pattern, recursive=True)  
  
# 初始化一个空的DataFrame用于存储所有数据  
all_data = pd.DataFrame()  
  
# 遍历文件路径,读取数据并合并  
for file in all_files:  
    xls = pd.ExcelFile(file)  
    for sheet_name in xls.sheet_names:  
        df = pd.read_excel(xls, sheet_name=sheet_name)  
        all_data = all_data.append(df, ignore_index=True)  
  
# 保存合并后的数据  
all_data.to_excel('merged_data_glob.xlsx', index=False)

这段代码使用glob.glob()函数查找主文件夹及其所有子文件夹中的Excel文件路径。然后,与第一种方法类似,逐个读取每个文件中的所有Sheet数据,并将其合并到一个DataFrame中。最后,将合并后的数据保存到新的Excel文件中。

三、使用openpyxl库进行合并

openpyxl是一个用于读写Excel 2010 xlsx/xlsm/xltx/xltm文件的Python库。它可以更底层地操作Excel文件,提供更大的灵活性。

案例与代码实现

使用openpyxl进行合并通常涉及更复杂的操作,因为需要手动处理工作簿和工作表。这里仅提供一个大致的框架,具体实现会根据具体需求有所不同。

from openpyxl import load_workbook  
import os  
  
# 初始化一个新的工作簿用于存储合并后的数据  
merged_wb = load_workbook(write_only=True)
merged_ws = merged_wb.active
 
定义主文件夹路径
main_folder = 'excel_files'
 
遍历主文件夹下的所有子文件夹和文件
for root, dirs, files in os.walk(main_folder):
for file in files:
if file.endswith('.xlsx'): # 确保是Excel文件
file_path = os.path.join(root, file)
# 加载Excel文件
wb = load_workbook(filename=file_path, read_only=True)
# 遍历工作簿中的每个工作表
for sheet in wb.worksheets:
for row in sheet.iter_rows(values_only=True):
# 将行数据追加到合并后的工作表中
merged_ws.append(row)
 
保存合并后的工作簿
merged_wb.save('merged_data_openpyxl.xlsx')

这段代码创建了一个新的工作簿,并遍历主文件夹及其子文件夹中的所有Excel文件。对于每个文件,它加载工作簿并遍历其中的每个工作表。然后,使用`iter_rows()`方法逐行读取数据,并将其追加到合并后的工作表中。最后,保存合并后的工作簿。  

 

需要注意的是,`openpyxl`的`write_only`模式可以提高写入性能,但某些功能可能会受到限制。此外,这种方法假设所有工作表的结构都是相同的,如果结构不同,可能需要进行额外的处理。  

四、使用`xlrd`和`xlwt`库进行合并

(注意:`xlrd`库自2.0.0版本后不再支持.xlsx格式,仅支持.xls格式)  

 

`xlrd`和`xlwt`是两个用于读写老版Excel文件(.xls格式)的Python库。虽然它们对于处理新版的.xlsx文件有所限制,但对于.xls文件仍然有效。  

 

**案例与代码实现**  

 

由于`xlrd`不再支持.xlsx格式,这里仅提供一个处理.xls文件的示例。对于.xlsx文件,建议使用`pandas`或`openpyxl`。  

import os  
import xlrd  
import xlwt  
  
# 初始化一个新的工作簿用于存储合并后的数据  
merged_wb = xlwt.Workbook()  
merged_ws = merged_wb.add_sheet('MergedData')  
row_num = 0  
  
# 定义主文件夹路径  
main_folder = 'excel_xls_files'  
  
# 遍历主文件夹下的所有子文件夹和文件  
for root, dirs, files in os.walk(main_folder):  
    for file in files:  
        if file.endswith('.xls'):  # 确保是.xls文件  
            file_path = os.path.join(root, file)  
            # 加载Excel文件  
            wb = xlrd.open_workbook(file_path)  
            # 遍历工作簿中的每个工作表  
            for sheet in wb.sheets():  
                for row_idx in range(sheet.nrows):  
                    row_data = sheet.row_values(row_idx)  
                    # 将行数据写入合并后的工作表中  
                    for col_idx, value in enumerate(row_data):  
                        merged_ws.write(row_num, col_idx, value)  
                    row_num += 1  
  
# 保存合并后的工作簿  
merged_wb.save('merged_data_xlrd_xlwt.xls')

这段代码创建了一个新的工作簿和一个工作表,用于存储合并后的数据。然后,它遍历主文件夹及其子文件夹中的所有.xls文件,加载每个文件的工作簿,并遍历其中的每个工作表。对于每个工作表中的行,它读取行数据并将其写入合并后的工作表中。最后,保存合并后的工作簿。

总结:

本文介绍了四种使用Python批量合并同一文件夹内所有子文件夹下的Excel文件内所有Sheet数据的方法。这些方法分别使用了不同的库和工具,各有其优缺点。在实际应用中,可以根据具体需求和文件格式选择合适的方法。通过合理使用这些工具,可以大大提高数据处理和分析的效率。对于新手朋友来说,建议从简单的方法开始尝试,逐步掌握更高级的技巧和工具。


相关文章
|
9天前
|
Java 测试技术 持续交付
【入门思路】基于Python+Unittest+Appium+Excel+BeautifulReport的App/移动端UI自动化测试框架搭建思路
本文重点讲解如何搭建App自动化测试框架的思路,而非完整源码。主要内容包括实现目的、框架设计、环境依赖和框架的主要组成部分。适用于初学者,旨在帮助其快速掌握App自动化测试的基本技能。文中详细介绍了从需求分析到技术栈选择,再到具体模块的封装与实现,包括登录、截图、日志、测试报告和邮件服务等。同时提供了运行效果的展示,便于理解和实践。
41 4
【入门思路】基于Python+Unittest+Appium+Excel+BeautifulReport的App/移动端UI自动化测试框架搭建思路
|
29天前
|
安全 Linux 数据安全/隐私保护
python知识点100篇系列(15)-加密python源代码为pyd文件
【10月更文挑战第5天】为了保护Python源码不被查看,可将其编译成二进制文件(Windows下为.pyd,Linux下为.so)。以Python3.8为例,通过Cython工具,先写好Python代码并加入`# cython: language_level=3`指令,安装easycython库后,使用`easycython *.py`命令编译源文件,最终生成.pyd文件供直接导入使用。
python知识点100篇系列(15)-加密python源代码为pyd文件
|
11天前
|
开发者 Python
Python中__init__.py文件的作用
`__init__.py`文件在Python包管理中扮演着重要角色,通过标识目录为包、初始化包、控制导入行为、支持递归包结构以及定义包的命名空间,`__init__.py`文件为组织和管理Python代码提供了强大支持。理解并正确使用 `__init__.py`文件,可以帮助开发者更好地组织代码,提高代码的可维护性和可读性。
15 2
|
24天前
|
Python
python读写操作excel日志
主要是读写操作,创建表格
50 2
|
27天前
|
Java Python
> python知识点100篇系列(19)-使用python下载文件的几种方式
【10月更文挑战第7天】本文介绍了使用Python下载文件的五种方法,包括使用requests、wget、线程池、urllib3和asyncio模块。每种方法适用于不同的场景,如单文件下载、多文件并发下载等,提供了丰富的选择。
|
28天前
|
数据安全/隐私保护 流计算 开发者
python知识点100篇系列(18)-解析m3u8文件的下载视频
【10月更文挑战第6天】m3u8是苹果公司推出的一种视频播放标准,采用UTF-8编码,主要用于记录视频的网络地址。HLS(Http Live Streaming)是苹果公司提出的一种基于HTTP的流媒体传输协议,通过m3u8索引文件按序访问ts文件,实现音视频播放。本文介绍了如何通过浏览器找到m3u8文件,解析m3u8文件获取ts文件地址,下载ts文件并解密(如有必要),最后使用ffmpeg合并ts文件为mp4文件。
|
1月前
|
JSON 数据格式 Python
Python实用记录(十四):python统计某个单词在TXT/JSON文件中出现的次数
这篇文章介绍了一个Python脚本,用于统计TXT或JSON文件中特定单词的出现次数。它包含两个函数,分别处理文本和JSON文件,并通过命令行参数接收文件路径、目标单词和文件格式。文章还提供了代码逻辑的解释和示例用法。
41 0
Python实用记录(十四):python统计某个单词在TXT/JSON文件中出现的次数
|
3天前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
3天前
|
机器学习/深度学习 数据挖掘 Python
Python编程入门——从零开始构建你的第一个程序
【10月更文挑战第39天】本文将带你走进Python的世界,通过简单易懂的语言和实际的代码示例,让你快速掌握Python的基础语法。无论你是编程新手还是想学习新语言的老手,这篇文章都能为你提供有价值的信息。我们将从变量、数据类型、控制结构等基本概念入手,逐步过渡到函数、模块等高级特性,最后通过一个综合示例来巩固所学知识。让我们一起开启Python编程之旅吧!