Python自动化:根据模板批量生成含指定数据的word文档

简介: Python自动化:根据模板批量生成含指定数据的word文档

简说Python,号主老表,Python终身学习者,数据分析爱好者,从18年开始分享Python知识,原创文章227篇,写过Python、SQL、Excel入门文章,也写过Web开发、数据分析文章,老表还总结整理了一份2022Python学习资料和电子书资源,关注后私信回复:2022 即可领取。

大家好,我是爱猫爱技术的老表,本文来自学妹投稿,希望大家多多点赞支持。

一、需求说明

秘密武器介绍docxtpl:一个很强大的包,其主要通过对docx文档模板加载,从而对其进行修改。pandas:提供高性能易用数据类型和分析工具
安装相关的第三方库Windows下按住Win+R打开运行窗口,输入cmd进入命令提示符窗口(Mac打开终端即可),输入以下命令安装相关包:pip install docxtplpip install pandas

使用案例生成某学校计算机与信息工程学院的新生入学通知书合集。word模板和表格内容如下(双括号处为待填写的部分):

 

image.png

image.png


效果如下

image.png

二、开始动手动脑

第一步:导入相关模块:

from docxtpl import DocxTemplate
import pandas as pd
import os

第二步:用Python新建文件夹用来存放入学通知书,如果文件夹已存在代码会跳过这一步:

zpath = os.getcwd() + '\\'  #获取当前的路径
zpath = r'E:\python\tj' + '\\'
file_path = zpath + r'\通知书合集'
try:
    os.mkdir(file_path)  #创建一级目录
except:
    pass

第三步:读取csv文件中的数据:

把表格里的每一列数据分别赋值给一个series类型变量,可以把series看成数组一样的类型。

data = pd.read_csv(zpath+'AdmissionList.csv', encoding='gbk')  #读取csv里的目标数据
name = data["姓名"].str.rstrip()  # str.rstrip()用于去掉空白
academy = data["学院"].str.rstrip()
major = data["专业"].str.rstrip()
begin_date = data["开始时间"].str.rstrip()
end_date = data["结束时间"].str.rstrip()

第四步:将数据写入模板:

遍历表格的每一行,将数据存入字典列表,

num = data.shape[0]   # 获取数据行数
for i in range(num):
    context = {
       "姓名": name[i],
       "学院": academy[i],
       "专业": major[i],
       "开始时间": begin_date[i],
       "结束时间": end_date[i]
}

选定模板,

tpl = DocxTemplate(zpath+'入学通知书.docx')

渲染替换,将context里的内容写入word模板中,

tpl.render(context)#渲染替换

保存文件,名字为:**的入学通知书。

tpl.save(file_path+r"\{}的入学通知书.docx".format(姓名[i]))


上述操作重复num(即表格中数据的行数)次,写完这些就可以在file_path中找到生成的文件啦。

 

可能出现的错误:

1)文件名乱码:可以尝试把解码方式换成gbk;

2)权限问题:可能是需要读入的数据文件正在被使用,关闭就行了;

3)生成的word文件行数混乱:可以把str.rstrip()写成str.rstrip(‘\n’);

4)只能生成同一份word文档:每渲染一次,就要重新选定模板。

三、总结

通过本次实验,我们实现了根据模板批量生成含指定数据的word文件,我最开始看代码时不懂它是用的哪种类型变量接收从csv中读取的数据,通过打印输出才知道是Pandas数据类型中的Series,百度后知道它类似于一维数组,可以保存任何数据类型。在后来运行代码的过程中又不断地出现各种各样的错误,还都是没遇到过的。在学习编程的过程中,看不懂代码和报错是经常会出现的问题,刚开始遇到会觉得很慌很烦躁,但是学习就是把自己遇到的问题解决的过程,知识都是在错误和不懂中积累起来的,所以让我们一起努力学习,成为一个打不倒的程序猴。关于新手怎么自学Python、解决编程遇到的问题,推荐大家看这篇文章:怎么自学Python,大概要多久?思路推荐

干货文章,求点赞转发支持。

相关文章
|
7月前
|
XML 数据格式 Python
从手动编辑到代码生成:Python 助你高效创建 Word 文档
本文介绍如何用Python实现Word文档自动化生成,结合python-docx、openpyxl和matplotlib库,高效完成报告撰写、数据插入与图表生成,大幅提升办公效率,降低格式错误,实现数据驱动的文档管理。
950 2
|
10月前
|
数据采集 数据可视化 JavaScript
用 通义灵码和 PyQt5 爬虫智能体轻松爬取掘金,自动化采集技术文章和数据
本文介绍了如何利用智能开发工具通义灵码和Python的PyQt5框架,构建一个自动化爬取掘金网站技术文章和数据的智能爬虫系统。通过通义灵码提高代码编写效率,使用PyQt5创建可视化界面,实现对爬虫任务的动态控制与管理。同时,还讲解了应对反爬机制、动态内容加载及数据清洗等关键技术点,帮助开发者高效获取并处理网络信息。
|
9月前
|
安全 JavaScript 开发者
Python 自动化办公神器|一键转换所有文档为 PDF
本文介绍一个自动化批量将 Word、Excel、PPT、TXT、HTML 及图片转换为 PDF 的 Python 脚本。支持多格式识别、错误处理与日志记录,适用于文档归档、报告整理等场景,大幅提升办公效率。仅限 Windows 平台,需安装 Office 及相关依赖。
467 0
|
数据采集 数据可视化 数据挖掘
利用Python自动化处理Excel数据:从基础到进阶####
本文旨在为读者提供一个全面的指南,通过Python编程语言实现Excel数据的自动化处理。无论你是初学者还是有经验的开发者,本文都将帮助你掌握Pandas和openpyxl这两个强大的库,从而提升数据处理的效率和准确性。我们将从环境设置开始,逐步深入到数据读取、清洗、分析和可视化等各个环节,最终实现一个实际的自动化项目案例。 ####
2557 10
|
10月前
|
XML Linux 区块链
Python提取Word表格数据教程(含.doc/.docx)
本文介绍了使用LibreOffice和python-docx库处理DOC文档表格的方法。首先需安装LibreOffice进行DOC到DOCX的格式转换,然后通过python-docx读取和修改表格数据。文中提供了详细的代码示例,包括格式转换函数、表格读取函数以及修改保存功能。该方法适用于Windows和Linux系统,解决了老旧DOC格式文档的处理难题,为需要处理历史文档的用户提供了实用解决方案。
1125 1
|
9月前
|
数据采集 运维 监控
|
12月前
|
SQL 安全 算法
解读 Python 3.14:模板字符串、惰性类型、Zstd压缩等7大核心功能升级
Python 3.14 引入了七大核心技术特性,大幅提升开发效率与应用安全性。其中包括:t-strings(PEP 750)提供更安全灵活的字符串处理;类型注解惰性求值(PEP 649)优化启动性能;外部调试器API标准化(PEP 768)增强调试体验;原生支持Zstandard压缩算法(PEP 784)提高效率;REPL交互环境升级更友好;UUID模块扩展支持新标准并优化性能;finally块语义强化(PEP 765)确保资源清理可靠性。这些改进使Python在后端开发、数据科学等领域更具竞争力。
596 5
解读 Python 3.14:模板字符串、惰性类型、Zstd压缩等7大核心功能升级
|
10月前
|
Python
Python 办公实战:用 python-docx 自动生成 Word 文档
本文详解如何使用 python-docx 库实现 Word 文档自动化生成,涵盖环境搭建、文档创建、格式设置、表格与图片处理、模板填充、批量生成及性能优化等实战技巧,助你高效完成办公场景中的文档自动化任务。
2182 1
|
9月前
|
监控 Linux 数据安全/隐私保护
Python实现Word转PDF全攻略:从入门到实战
在数字化办公中,Python实现Word转PDF自动化,可大幅提升处理效率,解决格式兼容问题。本文详解五种主流方案,包括跨平台的docx2pdf、Windows原生的pywin32、服务器部署首选的LibreOffice命令行、企业级的Aspose.Words,以及轻量级的python-docx+pdfkit组合。每种方案均提供核心代码与适用场景,并涵盖中文字体处理、表格优化、批量进度监控等实用技巧,助力高效办公自动化。
1823 0
|
数据采集 JSON 前端开发
GraphQL接口采集:自动化发现和提取隐藏数据字段
本文围绕GraphQL接口采集展开,详解如何通过`requests`+`Session`自动化提取隐藏数据字段,结合爬虫代理、Cookie与User-Agent设置实现精准抓取。内容涵盖错误示例(传统HTML解析弊端)、正确姿势(GraphQL请求构造)、原因解释(效率优势)、陷阱提示(反爬机制)及模板推荐(可复用代码)。掌握全文技巧,助你高效采集Yelp商家信息,避免常见误区,快速上手中高级爬虫开发。
263 3
GraphQL接口采集:自动化发现和提取隐藏数据字段

推荐镜像

更多