Python数据持久化-小测验

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 2018年7月13日考试1.Python读写csv文件现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.

2018年7月13日考试

1.Python读写csv文件

现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.csv文件(10分)

img_431aa9dc07a72baab1db665d6e0a15c6.png
题1.png

这一题需要用到的csv文件 data.csv下载链接: https://pan.baidu.com/s/1JCUCU4vXBQNwOx2xhAjDqA 密码: pbpx
第1题

import csv 

def printCsv(csvName):
    with open(csvName) as csvFile:
        reader = csv.reader(csvFile)
        for i in reader:
            print(i)

if __name__ == "__main__":
    inCsv = "data.csv"
    outCsv = "output.csv"
    with open(inCsv) as csvFile:
        reader = csv.reader(csvFile)
        data = list(reader)
    print("原csv文件data.csv的数据内容:")
    printCsv(inCsv)
    data.append(['Jack','104'])
    with open(outCsv,'w',\
        newline='') as csvFile:
        writer = csv.writer(csvFile)
        writer.writerows(data)
    print("新产生的csv文件output.csv的数据内容:")
    printCsv(outCsv)

上面一段代码的运行结果如下:

原csv文件data.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
新产生的csv文件output.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
['Jack', '104']

2.Python读写excel文件

如下所示的Excel表格数据,请编写python代码筛选出Points大于5的数据,并按Points进行排序后输出如图2所示的Excel文件结果

img_731cf796bc4c26743d6f081c16249c7e.png
题2.png

这一题需要用到的excel文件 rank.xlsx下载链接: https://pan.baidu.com/s/1reS7yjxUjU1iqZc0rCjljA 密码: uymy

import xlrd
import xlwt

if __name__ == "__main__":
    excel = xlrd.open_workbook("rank.xlsx")
    sheet = excel.sheet_by_index(0)
    #获取字段列表赋值给field_list,第2个字段大于5的数据列表赋值给data_list
    field_list = sheet.row_values(0)
    data_list = []
    for i in range(1,sheet.nrows):
        if int(sheet.row_values(i)[2]) > 5:
            data_list.append(sheet.row_values(i))
    #利用sorted内置函数排序
    data_list = sorted(data_list,key=lambda x:x[2],reverse=True)
    #将获得的信息存入新表,命名为output.xlsx
    excel_w = xlwt.Workbook()
    sheet_w = excel_w.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet_w.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet_w.write(i+1,j,data_list[i][j])
    excel_w.save("output.xls")

3.mysql数据库的sql语句

(1) 使用sql创建出如下图所示的数据表,数据库名为movies,表名为movieRank,表中包含MovieName、boxOffice、percent、days、totalBoxOffice五个字段,字段的信息如下图所示:


img_1c36e22e476c66ae1b19369bde9a5767.png
题3-1.png

img_3f6ed55b432b9d7a17e2b43bf08a8b67.png
创建语句.png

(2)使用sql语句向movieRank表中添加若干条数据(材料中已提供movieData.txt)

insert into movierank values("21克拉", 1031.92, 15.18, 2, 2827.06);
insert into movierank values("狂暴巨兽", 2928.28, 43.07, 9, 57089.20);
insert into movierank values("起跑线", 161.03, 2.37, 18, 19873.43);
insert into movierank values("头号玩家", 1054.87, 15.52, 23, 127306.41);
insert into movierank values("红海行动", 45.49, 0.67, 65, 364107.74);

插入数据的结果如下图所示:


img_3088ba13f8830b9b42ae4f00e2cdaf52.png
插入结果图示.png

(3)使用sql语句查询movieRank表中的数据并按照totalBoxOffice字段进行排序

select * from movierank order by totalboxoffice;

(4)使用sql语句计算出字段totalBoxOffice字段的总和

select sum(totalboxoffice) from movierank;

4.Python操作mysql数据库

此题接第3题题干,在第三题的基础上完成以下需求:
(1)编写python代码连接mysql数据库,并向movieRank表中新添加两条数据(已提供second.txt)

import pymysql

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    conn = getConn("movies")
    cursor = conn.cursor()
    insert_sql = 'insert into movierank values'\
    '("犬之岛", 617.35, 9.08, 2, 1309.09),'\
    '("湮灭", 135.34, 1.99, 9 , 5556.77)'
    cursor.execute(insert_sql)
    conn.commit()
    conn.close()

(2)编写python代码,查询出所有的电影数据,并输出到一个Excel表movieRank.xlsx中,如下图所示


img_e1d5b47cfd2671853fce009d43f3785a.png
题4-2.png
import pymysql
import xlwt

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    #从mysql数据库中取出数据赋值给data_list,其数据类型为元组
    conn = getConn("movies")
    cursor = conn.cursor()
    select_sql = "select * from movierank "
    cursor.execute(select_sql)
    data_list = cursor.fetchall()
    field_list = [k[0] for k in cursor.description]
    #把data_list中的数据存入新的excel中,并命名为movieRank.xls
    excel = xlwt.Workbook()
    sheet = excel.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet.write(i+1,j,data_list[i][j])
    excel.save("movieRank.xls")

5.Python操作MongoDB数据库

(1)编写python代码连接MongoDB数据库,并新建一个building库,在building库下新建一个rooms表

from pymongo import MongoClient

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.create_collection("rooms")

(2)编写python代码读取rooms.csv文件的中的数据,并将数据插入到rooms表中,添加到rooms表中的数据结构如下图所示

img_8c388ae48604921240da0ce7a2db5055.png
image.png

这一题需要用到的csv文件rooms.csv下载链接: https://pan.baidu.com/s/10fyct-J3a0txtS-EZaaxAQ 密码: je33

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    with open("rooms.csv") as csvFile:
        reader = list(csv.reader(csvFile))
        field_list = reader[0]
        data_list = reader[1:]
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    insert_list = []
    for data in data_list:
        insert_list.append(
            {key:value for key,value in zip(field_list,data)})
    rooms.insert_many(insert_list)

使用csv.DictReader方法

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    with open("rooms.csv") as csvFile:
        reader = csv.DictReader(csvFile)
        for row in reader:
            rooms.insert_one(dict(row))
相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
28天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
使用Python实现深度学习模型:智能数据隐私保护
使用Python实现深度学习模型:智能数据隐私保护 【10月更文挑战第3天】
90 0
|
17天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
1天前
|
图形学 Python
SciPy 空间数据2
凸包(Convex Hull)是计算几何中的概念,指包含给定点集的所有凸集的交集。可以通过 `ConvexHull()` 方法创建凸包。示例代码展示了如何使用 `scipy` 库和 `matplotlib` 绘制给定点集的凸包。
9 1
|
2天前
|
JSON 数据格式 索引
Python中序列化/反序列化JSON格式的数据
【11月更文挑战第4天】本文介绍了 Python 中使用 `json` 模块进行序列化和反序列化的操作。序列化是指将 Python 对象(如字典、列表)转换为 JSON 字符串,主要使用 `json.dumps` 方法。示例包括基本的字典和列表序列化,以及自定义类的序列化。反序列化则是将 JSON 字符串转换回 Python 对象,使用 `json.loads` 方法。文中还提供了具体的代码示例,展示了如何处理不同类型的 Python 对象。
|
3天前
|
数据采集 Web App开发 iOS开发
如何使用 Python 语言的正则表达式进行网页数据的爬取?
使用 Python 进行网页数据爬取的步骤包括:1. 安装必要库(requests、re、bs4);2. 发送 HTTP 请求获取网页内容;3. 使用正则表达式提取数据;4. 数据清洗和处理;5. 循环遍历多个页面。通过这些步骤,可以高效地从网页中提取所需信息。
|
27天前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
44 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
27天前
|
计算机视觉 Python
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
这篇文章介绍了如何使用Python的OpenCV库将多张图片合并为一张图片显示,以及如何使用matplotlib库从不同txt文档中读取数据并绘制多条折线图。
41 3
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
|
28天前
|
数据可视化 算法 Python
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
本文介绍了如何利用Python脚本结合动态模态分解(DMD)技术,分析从OpenFOAM模拟中提取的二维切片数据,以深入理解流体动力学现象。通过PyVista库处理VTK格式的模拟数据,进行POD和DMD分析,揭示流场中的主要能量结构及动态特征。此方法为研究复杂流动系统提供了有力工具。
60 2
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
|
15天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
34 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
24天前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
42 2

热门文章

最新文章