Python数据持久化-小测验

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 2018年7月13日考试1.Python读写csv文件现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.

2018年7月13日考试

1.Python读写csv文件

现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.csv文件(10分)

img_431aa9dc07a72baab1db665d6e0a15c6.png
题1.png

这一题需要用到的csv文件 data.csv下载链接: https://pan.baidu.com/s/1JCUCU4vXBQNwOx2xhAjDqA 密码: pbpx
第1题

import csv 

def printCsv(csvName):
    with open(csvName) as csvFile:
        reader = csv.reader(csvFile)
        for i in reader:
            print(i)

if __name__ == "__main__":
    inCsv = "data.csv"
    outCsv = "output.csv"
    with open(inCsv) as csvFile:
        reader = csv.reader(csvFile)
        data = list(reader)
    print("原csv文件data.csv的数据内容:")
    printCsv(inCsv)
    data.append(['Jack','104'])
    with open(outCsv,'w',\
        newline='') as csvFile:
        writer = csv.writer(csvFile)
        writer.writerows(data)
    print("新产生的csv文件output.csv的数据内容:")
    printCsv(outCsv)

上面一段代码的运行结果如下:

原csv文件data.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
新产生的csv文件output.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
['Jack', '104']

2.Python读写excel文件

如下所示的Excel表格数据,请编写python代码筛选出Points大于5的数据,并按Points进行排序后输出如图2所示的Excel文件结果

img_731cf796bc4c26743d6f081c16249c7e.png
题2.png

这一题需要用到的excel文件 rank.xlsx下载链接: https://pan.baidu.com/s/1reS7yjxUjU1iqZc0rCjljA 密码: uymy

import xlrd
import xlwt

if __name__ == "__main__":
    excel = xlrd.open_workbook("rank.xlsx")
    sheet = excel.sheet_by_index(0)
    #获取字段列表赋值给field_list,第2个字段大于5的数据列表赋值给data_list
    field_list = sheet.row_values(0)
    data_list = []
    for i in range(1,sheet.nrows):
        if int(sheet.row_values(i)[2]) > 5:
            data_list.append(sheet.row_values(i))
    #利用sorted内置函数排序
    data_list = sorted(data_list,key=lambda x:x[2],reverse=True)
    #将获得的信息存入新表,命名为output.xlsx
    excel_w = xlwt.Workbook()
    sheet_w = excel_w.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet_w.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet_w.write(i+1,j,data_list[i][j])
    excel_w.save("output.xls")

3.mysql数据库的sql语句

(1) 使用sql创建出如下图所示的数据表,数据库名为movies,表名为movieRank,表中包含MovieName、boxOffice、percent、days、totalBoxOffice五个字段,字段的信息如下图所示:


img_1c36e22e476c66ae1b19369bde9a5767.png
题3-1.png

img_3f6ed55b432b9d7a17e2b43bf08a8b67.png
创建语句.png

(2)使用sql语句向movieRank表中添加若干条数据(材料中已提供movieData.txt)

insert into movierank values("21克拉", 1031.92, 15.18, 2, 2827.06);
insert into movierank values("狂暴巨兽", 2928.28, 43.07, 9, 57089.20);
insert into movierank values("起跑线", 161.03, 2.37, 18, 19873.43);
insert into movierank values("头号玩家", 1054.87, 15.52, 23, 127306.41);
insert into movierank values("红海行动", 45.49, 0.67, 65, 364107.74);

插入数据的结果如下图所示:


img_3088ba13f8830b9b42ae4f00e2cdaf52.png
插入结果图示.png

(3)使用sql语句查询movieRank表中的数据并按照totalBoxOffice字段进行排序

select * from movierank order by totalboxoffice;

(4)使用sql语句计算出字段totalBoxOffice字段的总和

select sum(totalboxoffice) from movierank;

4.Python操作mysql数据库

此题接第3题题干,在第三题的基础上完成以下需求:
(1)编写python代码连接mysql数据库,并向movieRank表中新添加两条数据(已提供second.txt)

import pymysql

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    conn = getConn("movies")
    cursor = conn.cursor()
    insert_sql = 'insert into movierank values'\
    '("犬之岛", 617.35, 9.08, 2, 1309.09),'\
    '("湮灭", 135.34, 1.99, 9 , 5556.77)'
    cursor.execute(insert_sql)
    conn.commit()
    conn.close()

(2)编写python代码,查询出所有的电影数据,并输出到一个Excel表movieRank.xlsx中,如下图所示


img_e1d5b47cfd2671853fce009d43f3785a.png
题4-2.png
import pymysql
import xlwt

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    #从mysql数据库中取出数据赋值给data_list,其数据类型为元组
    conn = getConn("movies")
    cursor = conn.cursor()
    select_sql = "select * from movierank "
    cursor.execute(select_sql)
    data_list = cursor.fetchall()
    field_list = [k[0] for k in cursor.description]
    #把data_list中的数据存入新的excel中,并命名为movieRank.xls
    excel = xlwt.Workbook()
    sheet = excel.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet.write(i+1,j,data_list[i][j])
    excel.save("movieRank.xls")

5.Python操作MongoDB数据库

(1)编写python代码连接MongoDB数据库,并新建一个building库,在building库下新建一个rooms表

from pymongo import MongoClient

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.create_collection("rooms")

(2)编写python代码读取rooms.csv文件的中的数据,并将数据插入到rooms表中,添加到rooms表中的数据结构如下图所示

img_8c388ae48604921240da0ce7a2db5055.png
image.png

这一题需要用到的csv文件rooms.csv下载链接: https://pan.baidu.com/s/10fyct-J3a0txtS-EZaaxAQ 密码: je33

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    with open("rooms.csv") as csvFile:
        reader = list(csv.reader(csvFile))
        field_list = reader[0]
        data_list = reader[1:]
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    insert_list = []
    for data in data_list:
        insert_list.append(
            {key:value for key,value in zip(field_list,data)})
    rooms.insert_many(insert_list)

使用csv.DictReader方法

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    with open("rooms.csv") as csvFile:
        reader = csv.DictReader(csvFile)
        for row in reader:
            rooms.insert_one(dict(row))
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
目录
相关文章
|
16天前
|
缓存 API 网络架构
淘宝item_search_similar - 搜索相似的商品API接口,用python返回数据
淘宝联盟开放平台中,可通过“物料优选接口”(taobao.tbk.dg.optimus.material)实现“搜索相似商品”功能。该接口支持根据商品 ID 获取相似推荐商品,并返回商品信息、价格、优惠等数据,适用于商品推荐、比价等场景。本文提供基于 Python 的实现示例,包含接口调用、数据解析及结果展示。使用时需配置淘宝联盟的 appkey、appsecret 和 adzone_id,并注意接口调用频率限制和使用规范。
|
2月前
|
存储 Web App开发 前端开发
Python + Requests库爬取动态Ajax分页数据
Python + Requests库爬取动态Ajax分页数据
|
2月前
|
JSON API 数据格式
Python采集京东商品评论API接口示例,json数据返回
下面是一个使用Python采集京东商品评论的完整示例,包括API请求、JSON数据解析
|
4月前
|
JSON 算法 API
1688商品详情API实战:Python调用全流程与数据解析技巧
本文介绍了1688电商平台的商品详情API接口,助力电商从业者高效获取商品信息。接口可返回商品基础属性、价格体系、库存状态、图片描述及商家详情等多维度数据,支持全球化语言设置。通过Python示例代码展示了如何调用该接口,帮助用户快速上手,适用于选品分析、市场研究等场景。
|
5月前
|
数据采集 NoSQL 关系型数据库
Python爬虫去重策略:增量爬取与历史数据比对
Python爬虫去重策略:增量爬取与历史数据比对
|
18天前
|
JSON 安全 API
Python处理JSON数据的最佳实践:从基础到进阶的实用指南
JSON作为数据交换通用格式,广泛应用于Web开发与API交互。本文详解Python处理JSON的10个关键实践,涵盖序列化、复杂结构处理、性能优化与安全编程,助开发者高效应对各类JSON数据挑战。
95 1
|
2月前
|
XML Linux 区块链
Python提取Word表格数据教程(含.doc/.docx)
本文介绍了使用LibreOffice和python-docx库处理DOC文档表格的方法。首先需安装LibreOffice进行DOC到DOCX的格式转换,然后通过python-docx读取和修改表格数据。文中提供了详细的代码示例,包括格式转换函数、表格读取函数以及修改保存功能。该方法适用于Windows和Linux系统,解决了老旧DOC格式文档的处理难题,为需要处理历史文档的用户提供了实用解决方案。
127 0
|
2月前
|
缓存 监控 API
1688平台开放接口实战:如何通过API获取店铺所有商品数据(Python示列)
本文介绍如何通过1688开放平台API接口获取店铺所有商品,涵盖准备工作、接口调用及Python代码实现,适用于商品同步与数据监控场景。
|
4月前
|
Web App开发 数据采集 JavaScript
动态网页爬取:Python如何获取JS加载的数据?
动态网页爬取:Python如何获取JS加载的数据?
786 58
|
2月前
|
存储 监控 算法
基于 Python 跳表算法的局域网网络监控软件动态数据索引优化策略研究
局域网网络监控软件需高效处理终端行为数据,跳表作为一种基于概率平衡的动态数据结构,具备高效的插入、删除与查询性能(平均时间复杂度为O(log n)),适用于高频数据写入和随机查询场景。本文深入解析跳表原理,探讨其在局域网监控中的适配性,并提供基于Python的完整实现方案,优化终端会话管理,提升系统响应性能。
65 4

热门文章

最新文章

推荐镜像

更多