《python 与数据挖掘 》一 2.6 上机实验

简介:

本节书摘来自华章出版社《python 与数据挖掘 》一书中的第2章,第2.6节,作者张良均 杨海宏 何子健 杨 征,更多章节内容可以访问云栖社区“华章计算机”公众号查看。

2.6 上机实验

1.实验目的
掌握Python流程控制语句,合理运用循环进行程序设计。
掌握Python数据结构,并能熟练运用进行程序设计。
掌握Python的文件读写,并能编写读取数据集的程序。
2.实验内容
实验一
冒泡排序是一个经典的排序算法,任意给定一个Python的列表SList ,要求使用Python实现冒泡排序算法对SList进行排序。
输入样例:SList = [5,6,3,4,8,1,9,0,2]
输出样例:[0,1,2,3,4,5,6,7,8,9]
提示:for i in range(3)[::-1]: 这个语法表示从2到0倒叙遍历
实验二
设计一个节假日字典,键值为日期,格式如“160101”(表示2016年1月1日)。现在要求使用Python编写一个2016年5月的节假日字典,当输入日期时,字典能返回一个值,1代表该日为节假日,0代表该日不是节假日。最后要求使用json模块将这个节假日字典序列化并保存下来。
实验三
进行txt文件数据读取,数据为UCI数据库的疝气病症预测病马数据,数据见data/ horseColic.txt。数据有多行,每行都有22个数据,前21个为马的病症数据,最后一个为该马的标签,判断其患病与否。实验的要求是将所有行的前21个数据保存到一个二维列表dataArr中,而标签数据单独保存在一个列表labelArr中。
展示前三行数据经程序处理后的格式:
dataArr:
[['2.000000', '1.000000', '38.500000', '66.000000', '28.000000', '3.000000', '3.000000', '0.000000', '2.000000', '5.000000', '4.000000', '4.000000', '0.000000', '0.000000', '0.000000', '3.000000', '5.000000', '45.000000', '8.400000', '0.000000', '0.000000'], ['1.000000', '1.000000', '39.200000', '88.000000', '20.000000', '0.000000', '0.000000', '4.000000', '1.000000', '3.000000', '4.000000', '2.000000', '0.000000', '0.000000', '0.000000', '4.000000', '2.000000', '50.000000', '85.000000', '2.000000', '2.000000'], ['2.000000', '1.000000', '38.300000', '40.000000', '24.000000', '1.000000', '1.000000', '3.000000', '1.000000', '3.000000', '3.000000', '1.000000', '0.000000', '0.000000', '0.000000', '1.000000', '1.000000', '33.000000', '6.700000', '0.000000', '0.000000']]

labelArr:
['0.000000', '0.000000', '1.000000']

相关文章
|
1月前
|
JSON 算法 API
1688商品详情API实战:Python调用全流程与数据解析技巧
本文介绍了1688电商平台的商品详情API接口,助力电商从业者高效获取商品信息。接口可返回商品基础属性、价格体系、库存状态、图片描述及商家详情等多维度数据,支持全球化语言设置。通过Python示例代码展示了如何调用该接口,帮助用户快速上手,适用于选品分析、市场研究等场景。
|
2月前
|
数据采集 NoSQL 关系型数据库
Python爬虫去重策略:增量爬取与历史数据比对
Python爬虫去重策略:增量爬取与历史数据比对
|
3月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
104 5
|
1月前
|
Web App开发 数据采集 JavaScript
动态网页爬取:Python如何获取JS加载的数据?
动态网页爬取:Python如何获取JS加载的数据?
341 58
|
3月前
|
XML JSON API
淘宝商品详情API的调用流程(python请求示例以及json数据示例返回参考)
JSON数据示例:需要提供一个结构化的示例,展示商品详情可能包含的字段,如商品标题、价格、库存、描述、图片链接、卖家信息等。考虑到稳定性,示例应基于淘宝开放平台的标准响应格式。
|
25天前
|
人工智能 数据可视化 Python
在Python中对数据点进行标签化
本文介绍了如何在Python中使用Matplotlib和Seaborn对数据点进行标签化,提升数据可视化的信息量与可读性。通过散点图示例,展示了添加数据点标签的具体方法。标签化在标识数据点、分类数据可视化及趋势分析中具有重要作用。文章强调了根据需求选择合适工具,并保持图表清晰美观的重要性。
51 15
|
17天前
|
数据采集 Web App开发 JavaScript
Python爬虫解析动态网页:从渲染到数据提取
Python爬虫解析动态网页:从渲染到数据提取
|
1月前
|
供应链 API 开发者
1688 商品数据接口终极指南:Python 开发者如何高效获取标题 / 价格 / 销量数据(附调试工具推荐)
1688商品列表API是阿里巴巴开放平台提供的服务,允许开发者通过API获取1688平台的商品信息(标题、价格、销量等)。适用于电商选品、比价工具、供应链管理等场景。使用时需构造请求URL,携带参数(如q、start_price、end_price等),发送HTTP请求并解析返回的JSON/XML数据。示例代码展示了如何用Python调用该API获取商品列表。
113 18
|
2月前
|
数据采集 存储 缓存
Python爬虫与代理IP:高效抓取数据的实战指南
在数据驱动的时代,网络爬虫是获取信息的重要工具。本文详解如何用Python结合代理IP抓取数据:从基础概念(爬虫原理与代理作用)到环境搭建(核心库与代理选择),再到实战步骤(单线程、多线程及Scrapy框架应用)。同时探讨反爬策略、数据处理与存储,并强调伦理与法律边界。最后分享性能优化技巧,助您高效抓取公开数据,实现技术与伦理的平衡。
124 4
|
2月前
|
存储 数据库 Python
利用Python获取网络数据的技巧
抓起你的Python魔杖,我们一起进入了网络之海,捕捉那些悠游在网络中的数据鱼,想一想不同的网络资源,是不是都像数不尽的海洋生物,我们要做的,就是像一个优秀的渔民一样,找到他们,把它们捕获,然后用他们制作出种种美味。 **1. 打开魔法之门:请求包** 要抓鱼,首先需要一个鱼网。在Python的世界里,我们就是通过所谓的“请求包”来发送“抓鱼”的请求。requests是Python中常用的发送HTTP请求的库,用它可以方便地与网络上的资源进行交互。所谓的GET,POST,DELETE,还有PUT,这些听起来像偶像歌曲一样的单词,其实就是我们鱼网的不同方式。 简单用法如下: ``` im
81 14

推荐镜像

更多