【代码】Python实现Excel数据合并

简介: 【代码】Python实现Excel数据合并

概要

通过遍历指定目录下的多个Excel文件,将它们的数据合并到一个新的Excel文件中,实现Excel数据合并的功能。

整体架构流程

代码的主要流程如下:

导入所需的库:os用于文件路径操作,openpyxl用于处理Excel文件。


定义目录路径和保存的新文件名:将要合并的Excel文件所在的目录路径赋值给dir_path变量,合并后的Excel文件的文件名赋值给new_file_name变量。


创建新的工作簿对象:通过Workbook()函数创建一个新的工作簿对象,并使用.active属性获取默认的工作表。


遍历目录下的所有xlsx文件:使用os.listdir()函数遍历指定目录下的所有文件,判断文件名是否以.xlsx结尾,如果是则认为是Excel文件。


读取文件中的工作表:使用load_workbook()函数加载Excel文件,得到一个工作簿对象,然后使用.active属性获取默认的工作表。


遍历数据行并复制到新的工作表中:通过iter_rows()方法遍历每一行的数据,将每一行的数据以列表的形式追加到新的工作表中。


保存合并后的数据到新文件中:使用save()方法将新的工作簿对象保存为一个新的Excel文件,文件路径为合并目录下的new_file_name。


打印合并完成的提示信息。

代码

import os
from openpyxl import Workbook, load_workbook

# 定义路径和保存的新文件名
dir_path = 'F:/code_test/fenlei'
new_file_name = 'merged.xlsx'

# 初始化一个新的工作簿对象
merged_book = Workbook()
merged_sheet = merged_book.active

# 遍历目录下的所有xlsx文件
for filename in os.listdir(dir_path):
    if filename.endswith('.xlsx'):
        file_path = os.path.join(dir_path, filename)
        print(f"Reading data from {file_path}")
        
        # 读取文件中的工作表
        file_book = load_workbook(file_path)
        file_sheet = file_book.active
        
        # 遍历数据行并将它们复制到新的工作表中
        for row in file_sheet.iter_rows(values_only=True):
            merged_sheet.append(row)

# 将数据保存到新文件中
merged_book.save(os.path.join(dir_path, new_file_name))

print("All files have been merged and saved to " + new_file_name)

小结

这段代码的功能是将指定目录下的多个Excel文件中的数据合并到一个新的Excel文件中。

相关文章
|
9天前
|
JSON 算法 API
1688商品详情API实战:Python调用全流程与数据解析技巧
本文介绍了1688电商平台的商品详情API接口,助力电商从业者高效获取商品信息。接口可返回商品基础属性、价格体系、库存状态、图片描述及商家详情等多维度数据,支持全球化语言设置。通过Python示例代码展示了如何调用该接口,帮助用户快速上手,适用于选品分析、市场研究等场景。
|
2月前
|
运维 监控 算法
时间序列异常检测:MSET-SPRT组合方法的原理和Python代码实现
MSET-SPRT是一种结合多元状态估计技术(MSET)与序贯概率比检验(SPRT)的混合框架,专为高维度、强关联数据流的异常检测设计。MSET通过历史数据建模估计系统预期状态,SPRT基于统计推断判定偏差显著性,二者协同实现精准高效的异常识别。本文以Python为例,展示其在模拟数据中的应用,证明其在工业监控、设备健康管理及网络安全等领域的可靠性与有效性。
618 13
时间序列异常检测:MSET-SPRT组合方法的原理和Python代码实现
|
1月前
|
数据采集 NoSQL 关系型数据库
Python爬虫去重策略:增量爬取与历史数据比对
Python爬虫去重策略:增量爬取与历史数据比对
|
2月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
|
2月前
|
XML JSON API
淘宝商品详情API的调用流程(python请求示例以及json数据示例返回参考)
JSON数据示例:需要提供一个结构化的示例,展示商品详情可能包含的字段,如商品标题、价格、库存、描述、图片链接、卖家信息等。考虑到稳定性,示例应基于淘宝开放平台的标准响应格式。
|
9天前
|
数据采集 运维 API
把Postman调试脚本秒变Python采集代码的三大技巧
本文介绍了如何借助 Postman 调试工具快速生成 Python 爬虫代码,并结合爬虫代理实现高效数据采集。文章通过“跨界混搭”结构,先讲解 Postman 的 API 调试功能,再映射到 Python 爬虫技术,重点分享三大技巧:利用 Postman 生成请求骨架、通过 Session 管理 Cookie 和 User-Agent,以及集成代理 IP 提升稳定性。以票务信息采集为例,展示完整实现流程,探讨其在抗封锁、团队协作等方面的价值,帮助开发者快速构建生产级爬虫代码。
把Postman调试脚本秒变Python采集代码的三大技巧
|
8天前
|
供应链 API 开发者
1688 商品数据接口终极指南:Python 开发者如何高效获取标题 / 价格 / 销量数据(附调试工具推荐)
1688商品列表API是阿里巴巴开放平台提供的服务,允许开发者通过API获取1688平台的商品信息(标题、价格、销量等)。适用于电商选品、比价工具、供应链管理等场景。使用时需构造请求URL,携带参数(如q、start_price、end_price等),发送HTTP请求并解析返回的JSON/XML数据。示例代码展示了如何用Python调用该API获取商品列表。
72 18
|
2天前
|
Web App开发 数据采集 JavaScript
动态网页爬取:Python如何获取JS加载的数据?
动态网页爬取:Python如何获取JS加载的数据?
|
2天前
|
存储 安全 大数据
网安工程师必看!AiPy解决fscan扫描数据整理难题—多种信息快速分拣+Excel结构化存储方案
作为一名安全测试工程师,分析fscan扫描结果曾是繁琐的手动活:从海量日志中提取开放端口、漏洞信息和主机数据,耗时又易错。但现在,借助AiPy开发的GUI解析工具,只需喝杯奶茶的时间,即可将[PORT]、[SERVICE]、[VULN]、[HOST]等关键信息智能分类,并生成三份清晰的Excel报表。告别手动整理,大幅提升效率!在安全行业,工具党正碾压手动党。掌握AiPy,把时间留给真正的攻防实战!官网链接:https://www.aipyaipy.com,解锁更多用法!
|
1月前
|
数据采集 存储 缓存
Python爬虫与代理IP:高效抓取数据的实战指南
在数据驱动的时代,网络爬虫是获取信息的重要工具。本文详解如何用Python结合代理IP抓取数据:从基础概念(爬虫原理与代理作用)到环境搭建(核心库与代理选择),再到实战步骤(单线程、多线程及Scrapy框架应用)。同时探讨反爬策略、数据处理与存储,并强调伦理与法律边界。最后分享性能优化技巧,助您高效抓取公开数据,实现技术与伦理的平衡。
89 4

热门文章

最新文章