Python编程自动化办公案例(1)

简介: Python编程自动化办公案例(1)

前言

本章将会讲解Python编程实现自动化办公案例(1)使用xlwt与xlrd,实现excel表格的批量合并与拆分。

一.使用库讲解

1.xlrd

xlrd是读取excel的扩展第三方库,可以实现指定表单、指定单元格的读取。在Windows命令行提示符下输入以下命令即可自动完成安装过程。

pip install xlrd


fcb17333d2764880b76c89d59a6d308b.png

2.xlwt

xlwt创建一个全新的excel文件,然后对这个文件进行写入内容以及保存。在Windows命令行提示符下输入以下命令即可自动完成安装过程

pip install xlwt


fd5a29264bce442ebff8fd20683a2bd1.png

二.主要案例

1.批量合并

需求:老师想组织班级的同学一起进行团建,找到班级课代表张三同学来统计其他同学的娱乐倾向以及可接受的费用。

模板如下:


667813fafeb34777bf64dba752074278.png

每一位同学都会收到一份文件,进行填写,将填写后的文件以名字的命名方法发给课代表。

课代表将会以名字的方式进行统计模板如下。

5f8cb186c66846aebc9339c939e3ebb8.png


2.实现方法

方法1:CV大法,输出全靠一双手,人少可以使用,如果人多呢


a36335b0743a4ce792cd8f0a4283b700.png

方法2:使用Python进行调查问卷自动化,输出只要点一下

读取学员填好的每份文件

提取学员填写的内容

将内容写入汇总表

保存汇总表


1.调用库

1. 调用库
2. import xlrd


2.打开张三xlsx excel工作簿


16d1a30dc0a940a8ba78b9104d0b5092.png

#1.打开张三xlsx excel工作簿
path = r"C:\Users\86134\PycharmProjects\zdh\zs.xlsx"  #绝对路径
data = xlrd.open_workbook(path)    #打开()

3.获取第一个工作表

1. #获取第一个工作表对象
2. table=data.sheets()


4. 获取到第一题的选项单元格

#获取到第一题的选项单元格
#注意: list index out of range 下标超出索引范围
#注意:里面的下标也是从0开始
# table.cell_value(rowx=3,colx=4)#行,列下标


import xlrd
#1.打开张三xlsx excel工作簿
path = r"C:\Users\86134\PycharmProjects\zdh\zs.xlsx"
data = xlrd.open_workbook(path)
#获取第一个工作表对象
# table=data.sheets()
#获取到第一题的选项单元格
#注意: list index out of range 下标超出索引范围
#注意:里面的下标也是从0开始
# table.cell_value(rowx=3,colx=4)#行,列下标
目录
相关文章
|
3月前
|
安全 JavaScript 开发者
Python 自动化办公神器|一键转换所有文档为 PDF
本文介绍一个自动化批量将 Word、Excel、PPT、TXT、HTML 及图片转换为 PDF 的 Python 脚本。支持多格式识别、错误处理与日志记录,适用于文档归档、报告整理等场景,大幅提升办公效率。仅限 Windows 平台,需安装 Office 及相关依赖。
186 0
|
4月前
|
Web App开发 存储 前端开发
Python+Selenium自动化爬取携程动态加载游记
Python+Selenium自动化爬取携程动态加载游记
|
1月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
29天前
|
存储 数据采集 监控
Python定时爬取新闻网站头条:从零到一的自动化实践
在信息爆炸时代,本文教你用Python定时爬取腾讯新闻头条,实现自动化监控。涵盖请求、解析、存储、去重、代理及异常通知,助你构建高效新闻采集系统,适用于金融、电商、媒体等场景。(238字)
251 2
|
2月前
|
数据采集 监控 Shell
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
Shell脚本利用curl/wget发起请求,结合文本处理工具构建轻量级爬虫,支持并行加速、定时任务、增量抓取及分布式部署。通过随机UA、异常重试等优化提升稳定性,适用于日志监控、价格追踪等场景。相比Python,具备启动快、资源占用低的优势,适合嵌入式或老旧服务器环境,复杂任务可结合Python实现混合编程。
|
2月前
|
设计模式 缓存 运维
Python装饰器实战场景解析:从原理到应用的10个经典案例
Python装饰器是函数式编程的精华,通过10个实战场景,从日志记录、权限验证到插件系统,全面解析其应用。掌握装饰器,让代码更优雅、灵活,提升开发效率。
208 0
|
4月前
|
数据采集 存储 NoSQL
Python爬虫案例:Scrapy+XPath解析当当网网页结构
Python爬虫案例:Scrapy+XPath解析当当网网页结构
|
4月前
|
存储 数据采集 数据可视化
Python自动化分析知网文献:爬取、存储与可视化
Python自动化分析知网文献:爬取、存储与可视化
|
4月前
|
数据采集 存储 监控
Python爬虫自动化:定时监控快手热门话题
Python爬虫自动化:定时监控快手热门话题
|
4月前
|
Web App开发 人工智能 数据可视化
猫头虎 推荐:国产开源AI工具 爱派(AiPy)|支持本地部署、自动化操作本地文件的AI办公神器
爱派(AiPy)是一款国产开源AI工具,支持本地部署与自动化操作,助力数据处理与办公效率提升。基于Python Use理念,AiPy让AI直接控制本地文件,简化繁琐任务,提供高效智能的解决方案,适用于数据工程师、分析师及日常办公用户。
1946 0

推荐镜像

更多