Python数据持久化-小测验

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
云数据库 RDS MySQL Serverless,价值2615元额度,1个月
简介: 2018年7月13日考试1.Python读写csv文件现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.

2018年7月13日考试

1.Python读写csv文件

现有如下图1所示的data.csv文件数据,请使用python读取该csv文件数据,并添加一条记录后输出如图2所示的output.csv文件(10分)

img_431aa9dc07a72baab1db665d6e0a15c6.png
题1.png

这一题需要用到的csv文件 data.csv下载链接: https://pan.baidu.com/s/1JCUCU4vXBQNwOx2xhAjDqA 密码: pbpx
第1题

import csv 

def printCsv(csvName):
    with open(csvName) as csvFile:
        reader = csv.reader(csvFile)
        for i in reader:
            print(i)

if __name__ == "__main__":
    inCsv = "data.csv"
    outCsv = "output.csv"
    with open(inCsv) as csvFile:
        reader = csv.reader(csvFile)
        data = list(reader)
    print("原csv文件data.csv的数据内容:")
    printCsv(inCsv)
    data.append(['Jack','104'])
    with open(outCsv,'w',\
        newline='') as csvFile:
        writer = csv.writer(csvFile)
        writer.writerows(data)
    print("新产生的csv文件output.csv的数据内容:")
    printCsv(outCsv)

上面一段代码的运行结果如下:

原csv文件data.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
新产生的csv文件output.csv的数据内容:
['name', ' stuNo']
['ZhangSan', ' 101']
['LiSi', ' 102']
['WangWu', ' 103']
['Jack', '104']

2.Python读写excel文件

如下所示的Excel表格数据,请编写python代码筛选出Points大于5的数据,并按Points进行排序后输出如图2所示的Excel文件结果

img_731cf796bc4c26743d6f081c16249c7e.png
题2.png

这一题需要用到的excel文件 rank.xlsx下载链接: https://pan.baidu.com/s/1reS7yjxUjU1iqZc0rCjljA 密码: uymy

import xlrd
import xlwt

if __name__ == "__main__":
    excel = xlrd.open_workbook("rank.xlsx")
    sheet = excel.sheet_by_index(0)
    #获取字段列表赋值给field_list,第2个字段大于5的数据列表赋值给data_list
    field_list = sheet.row_values(0)
    data_list = []
    for i in range(1,sheet.nrows):
        if int(sheet.row_values(i)[2]) > 5:
            data_list.append(sheet.row_values(i))
    #利用sorted内置函数排序
    data_list = sorted(data_list,key=lambda x:x[2],reverse=True)
    #将获得的信息存入新表,命名为output.xlsx
    excel_w = xlwt.Workbook()
    sheet_w = excel_w.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet_w.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet_w.write(i+1,j,data_list[i][j])
    excel_w.save("output.xls")

3.mysql数据库的sql语句

(1) 使用sql创建出如下图所示的数据表,数据库名为movies,表名为movieRank,表中包含MovieName、boxOffice、percent、days、totalBoxOffice五个字段,字段的信息如下图所示:


img_1c36e22e476c66ae1b19369bde9a5767.png
题3-1.png

img_3f6ed55b432b9d7a17e2b43bf08a8b67.png
创建语句.png

(2)使用sql语句向movieRank表中添加若干条数据(材料中已提供movieData.txt)

insert into movierank values("21克拉", 1031.92, 15.18, 2, 2827.06);
insert into movierank values("狂暴巨兽", 2928.28, 43.07, 9, 57089.20);
insert into movierank values("起跑线", 161.03, 2.37, 18, 19873.43);
insert into movierank values("头号玩家", 1054.87, 15.52, 23, 127306.41);
insert into movierank values("红海行动", 45.49, 0.67, 65, 364107.74);

插入数据的结果如下图所示:


img_3088ba13f8830b9b42ae4f00e2cdaf52.png
插入结果图示.png

(3)使用sql语句查询movieRank表中的数据并按照totalBoxOffice字段进行排序

select * from movierank order by totalboxoffice;

(4)使用sql语句计算出字段totalBoxOffice字段的总和

select sum(totalboxoffice) from movierank;

4.Python操作mysql数据库

此题接第3题题干,在第三题的基础上完成以下需求:
(1)编写python代码连接mysql数据库,并向movieRank表中新添加两条数据(已提供second.txt)

import pymysql

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    conn = getConn("movies")
    cursor = conn.cursor()
    insert_sql = 'insert into movierank values'\
    '("犬之岛", 617.35, 9.08, 2, 1309.09),'\
    '("湮灭", 135.34, 1.99, 9 , 5556.77)'
    cursor.execute(insert_sql)
    conn.commit()
    conn.close()

(2)编写python代码,查询出所有的电影数据,并输出到一个Excel表movieRank.xlsx中,如下图所示


img_e1d5b47cfd2671853fce009d43f3785a.png
题4-2.png
import pymysql
import xlwt

def getConn(database ="pydb"):
    args = dict(
        host = 'localhost',
        user = 'root',
        passwd = 'Leimysql8',
        charset = 'utf8',
        db = database
    )
    return pymysql.connect(**args)

if __name__ == "__main__":
    #从mysql数据库中取出数据赋值给data_list,其数据类型为元组
    conn = getConn("movies")
    cursor = conn.cursor()
    select_sql = "select * from movierank "
    cursor.execute(select_sql)
    data_list = cursor.fetchall()
    field_list = [k[0] for k in cursor.description]
    #把data_list中的数据存入新的excel中,并命名为movieRank.xls
    excel = xlwt.Workbook()
    sheet = excel.add_sheet("sheet1")
    for i in range(len(field_list)):
        sheet.write(0,i,field_list[i])
    for i in range(len(data_list)):
        for j in range(len(data_list[i])):
            sheet.write(i+1,j,data_list[i][j])
    excel.save("movieRank.xls")

5.Python操作MongoDB数据库

(1)编写python代码连接MongoDB数据库,并新建一个building库,在building库下新建一个rooms表

from pymongo import MongoClient

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.create_collection("rooms")

(2)编写python代码读取rooms.csv文件的中的数据,并将数据插入到rooms表中,添加到rooms表中的数据结构如下图所示

img_8c388ae48604921240da0ce7a2db5055.png
image.png

这一题需要用到的csv文件rooms.csv下载链接: https://pan.baidu.com/s/10fyct-J3a0txtS-EZaaxAQ 密码: je33

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    with open("rooms.csv") as csvFile:
        reader = list(csv.reader(csvFile))
        field_list = reader[0]
        data_list = reader[1:]
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    insert_list = []
    for data in data_list:
        insert_list.append(
            {key:value for key,value in zip(field_list,data)})
    rooms.insert_many(insert_list)

使用csv.DictReader方法

from pymongo import MongoClient
import csv

if __name__ == "__main__":
    conn = MongoClient("localhost")
    db = conn.building
    rooms = db.rooms
    with open("rooms.csv") as csvFile:
        reader = csv.DictReader(csvFile)
        for row in reader:
            rooms.insert_one(dict(row))
相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
5天前
|
数据可视化 数据挖掘 Python
Python时间序列分析苹果股票数据:分解、平稳性检验、滤波器、滑动窗口平滑、移动平均、可视化(下)
Python时间序列分析苹果股票数据:分解、平稳性检验、滤波器、滑动窗口平滑、移动平均、可视化
13 0
|
5天前
|
数据可视化 API 开发者
Python时间序列分析苹果股票数据:分解、平稳性检验、滤波器、滑动窗口平滑、移动平均、可视化(上)
Python时间序列分析苹果股票数据:分解、平稳性检验、滤波器、滑动窗口平滑、移动平均、可视化
16 0
|
5天前
|
机器学习/深度学习 数据可视化 安全
Python随机森林、线性回归对COVID-19疫情、汇率数据预测死亡率、病例数、失业率影响可视化(下)
Python随机森林、线性回归对COVID-19疫情、汇率数据预测死亡率、病例数、失业率影响可视化
14 1
|
5天前
|
机器学习/深度学习 数据可视化 Python
Python随机森林、线性回归对COVID-19疫情、汇率数据预测死亡率、病例数、失业率影响可视化(上)
Python随机森林、线性回归对COVID-19疫情、汇率数据预测死亡率、病例数、失业率影响可视化
19 0
|
5天前
|
机器学习/深度学习 存储 数据采集
【Python 机器学习专栏】PCA(主成分分析)在数据降维中的应用
【4月更文挑战第30天】本文探讨了主成分分析(PCA)在高维数据降维中的应用。PCA通过线性变换找到最大化方差的主成分,从而降低数据维度,简化存储和计算,同时去除噪声。文章介绍了PCA的基本原理、步骤,强调了PCA在数据降维、可视化和特征提取上的优势,并提供了Python实现示例。PCA广泛应用在图像压缩、机器学习和数据分析等领域,但降维后可能损失解释性,需注意选择合适主成分数量及数据预处理。
|
5天前
|
vr&ar Python
Python自激励阈值自回归(SETAR)、ARMA、BDS检验、预测分析太阳黑子时间序列数据
Python自激励阈值自回归(SETAR)、ARMA、BDS检验、预测分析太阳黑子时间序列数据
11 0
|
5天前
|
Python
Python随机波动性SV模型:贝叶斯推断马尔可夫链蒙特卡洛MCMC分析英镑/美元汇率时间序列数据|数据分享
Python随机波动性SV模型:贝叶斯推断马尔可夫链蒙特卡洛MCMC分析英镑/美元汇率时间序列数据|数据分享
10 0
|
5天前
|
机器学习/深度学习 Python
【Python机器学习专栏】时间序列数据的特征工程
【4月更文挑战第30天】本文探讨了时间序列数据的特征工程,强调其在捕捉季节性、揭示趋势、处理异常值和提升模型性能中的重要性。介绍了滞后特征、移动窗口统计特征、时间戳特征、频域特征和波动率特征等方法,并提供了Python实现示例。通过有效特征工程,可提高时间序列分析的准确性和预测可靠性。
|
5天前
|
机器学习/深度学习 计算机视觉 Python
【Python 机器学习专栏】图像数据的特征提取与预处理
【4月更文挑战第30天】本文探讨了图像数据的特征提取与预处理在机器学习中的重要性。图像数据具有大容量、信息丰富和冗余性高的特点。特征提取涉及颜色、纹理和形状特征;预处理包括图像增强、去噪和分割。Python的OpenCV和Scikit-image库在处理这些任务时非常有用。常见的特征提取方法有统计、变换和基于模型的方法,而预处理应注意保持图像真实性、适应性调整及验证评估。有效的特征提取和预处理能提升模型性能,Python工具使其更高效。
|
5天前
|
机器学习/深度学习 自然语言处理 算法
【Python机器学习专栏】文本数据的特征提取与表示
【4月更文挑战第30天】本文探讨了文本特征提取与表示在机器学习和NLP中的重要性。介绍了词袋模型、TF-IDF和n-gram等特征提取方法,以及稀疏向量和词嵌入等表示方式。Python中可利用sklearn和gensim库实现这些技术。有效的特征提取与表示有助于将文本数据转化为可处理的数值形式,推动NLP和机器学习领域的进步。