刚学完python自动化系列文章,就接了一单任务

简介: 刚学完python自动化系列文章,就接了一单任务

1、需求

该文是一个群友找到我,然后让我做的,要求我下午两点之前提交给他。题目并不难,只有一个要求:必须使用openpyxl操作。这个可以当作是一个项目练手,正好是对那个自动化文章的一个检验。

对话如下:

image.png

需求如下:

image.png

原始数据如下:

image.png


2、python代码

from openpyxl import load_workbook
from openpyxl import Workbook
# 1、读取数据
workbook = load_workbook(filename = "作业-原始成绩.xlsx")   
workbook.sheetnames
sheet = workbook["Sheet1"]
# sheet.dimensions查看表格的维度
cell = sheet["A2:G27"]
# 2、提取表格中的数据
y = []
for i in cell:
    x = []
    for j in i:
        x.append(j.value)
        xx = x[:1]+x[4:]
    y.append(xx)
# 3、清洗数据,将清洗好的数据写入表格
# 新建一个空白的excel表格
workbook = Workbook()
sheet1 = workbook.active
sheet1.title = "表格1" 
sheet1.append(["学号","姓名","检测","讨论","成绩"])
# 数据清洗
for xx in y:
    # 提取学号
    xuehao = xx[0][5:16]
    # 提取姓名
    name = xx[0][16:]
    # 提取检测
    test = float(xx[1])
    # 提取套论
    taolun = xx[2]
    if taolun == "-":
        taolun = 0
    else:
        taolun = float(xx[2])
    # 提取成绩
    score = float(xx[3])
    final = [xuehao, name, test, taolun, score]
    # 将最终的数据一行行的写入到excel中
    sheet1.append(final)
# 将数据写入到excel后,必须保存,否则前面的操作前功尽弃
workbook.save(filename = "作业.xlsx")


效果如下:

image.png

相关文章
|
3月前
|
供应链 并行计算 算法
1行Python搞定高频任务!26个实用技巧解决日常+进阶需求
本文整理了26个Python极简技巧,涵盖日常高频操作与进阶玩法,助你用最少代码高效解决问题,提升编程效率。适合各阶段Python学习者参考。
144 27
|
4月前
|
安全 JavaScript 开发者
Python 自动化办公神器|一键转换所有文档为 PDF
本文介绍一个自动化批量将 Word、Excel、PPT、TXT、HTML 及图片转换为 PDF 的 Python 脚本。支持多格式识别、错误处理与日志记录,适用于文档归档、报告整理等场景,大幅提升办公效率。仅限 Windows 平台,需安装 Office 及相关依赖。
233 0
|
5月前
|
Web App开发 存储 前端开发
Python+Selenium自动化爬取携程动态加载游记
Python+Selenium自动化爬取携程动态加载游记
|
2月前
|
存储 数据采集 监控
Python定时爬取新闻网站头条:从零到一的自动化实践
在信息爆炸时代,本文教你用Python定时爬取腾讯新闻头条,实现自动化监控。涵盖请求、解析、存储、去重、代理及异常通知,助你构建高效新闻采集系统,适用于金融、电商、媒体等场景。(238字)
377 2
|
4月前
|
人工智能 数据可视化 数据挖掘
团队日报不用愁!自动化生成工具亲测:任务进度实时同步
本文深入分析了传统手动日报在数据孤岛、格式混乱和时效性差三大痛点,并探讨了自动化日报带来的效率提升、决策优化等四大核心价值。通过对板栗看板、SmartBrief、n8n 等六款主流工具的功能、适用场景及实战效果进行测评,为企业提供科学的选型建议与实施路径。
团队日报不用愁!自动化生成工具亲测:任务进度实时同步
|
3月前
|
数据采集 监控 Shell
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
Shell脚本利用curl/wget发起请求,结合文本处理工具构建轻量级爬虫,支持并行加速、定时任务、增量抓取及分布式部署。通过随机UA、异常重试等优化提升稳定性,适用于日志监控、价格追踪等场景。相比Python,具备启动快、资源占用低的优势,适合嵌入式或老旧服务器环境,复杂任务可结合Python实现混合编程。
|
5月前
|
存储 数据采集 数据可视化
Python自动化分析知网文献:爬取、存储与可视化
Python自动化分析知网文献:爬取、存储与可视化
|
5月前
|
数据采集 存储 监控
Python爬虫自动化:定时监控快手热门话题
Python爬虫自动化:定时监控快手热门话题
|
2月前
|
数据采集 运维 监控
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
本文系统解析爬虫与自动化核心技术,涵盖HTTP请求、数据解析、分布式架构及反爬策略,结合Scrapy、Selenium等框架实战,助力构建高效、稳定、合规的数据采集系统。
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南

推荐镜像

更多