数据导入与预处理-第4章-pandas数据获取(下)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS PostgreSQL,高可用系列 2核4GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 数据导入与预处理-第4章-pandas数据获取1 数据获取1.1 概述1.2 从CSV和TXT文件获取数据1.2.1 读取csv案例-指定sep,encoding,engine1.2.2 读取csv案例-names和header1.2.3 读取csv案例-指定index_col和usecols1.2.4 读取csv案例-指定nrows和skiprows1.2.5 读取csv案例-指定dtype

1.4读取json文件

掌握read_json()函数的用法,可以熟练地使用该方法从JSON文件中获取数据JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,它以简洁和清晰的层次结构来组织数据,易于被人们阅读和编写。JSON采用独立于编程语言的文本格式来存储数据,其文件的后缀名为.json,可通过文本编辑工具查看。Pandas中使用read_json()函数读取JSON文件的数据,并将数据转换成一个DataFrame类对象。

pandas.read_json(path_or_buf=None, orient=None, typ='frame', dtype=None,
         convert_axes=None, convert_dates=True, keep_default_dates=True,
         numpy=False, precise_float=False, date_unit=None, encoding=None,
         lines=False, chunksize=None, compression='infer')
path_or_buf:接收格式为[a valid JSON string or file-like, default: None] 选择JSON文件或者是指定可以是URL。有效的URL形式包括http、ftp、s3和文件。对于URL文件,需要指定本地文件目录。例如,本地文件可以是file://localhost/path/to/table.json。
orient:接收格式为[string],指示预期的JSON字符串格式。兼容的JSON字符串可以由to_json生成并且具有具体的orient。其中设定的orient取决于JSON文件的形式以及你想要转为dataframe的形式。
    'split':将行索引index,列索引columns,值数据data分开来。dict like {‘index’ -> [index], ‘columns’ -> [columns], ‘data’ -> [values]}。json文件的每一行都类似如下,而且json文件的key的名字只能为index,cloumns,data这三个,另外多一个key都不行,少一个也不行。'{"index":[1,2,3],"columns":["a","b"],"data":[[1,3],[2,8],[3,9]]}'否则报bug :SyntaxError: EOL while scanning string literal
    ‘records':将列表list格式,以[{列名->值},..]形式输出。list like [{column -> value}, … , {column -> value}]。‘[{“col 1”:“a”,“col 2”:“b”},{“col 1”:“c”,“col 2”:“d”}]’
    'index':将字典以{行索引:{列索引:值}}以这种形式输出dict like {index -> {column -> value}}。‘{“row 1”:{“col 1”:“a”,“col 2”:“b”},“row 2”:{“col 1”:“c”,“col 2”:“d”}}’
    'columns':将字典以{列索引:{行索引:值}}以这种形式输出 dict like {column -> {index -> value}}。'{"city":{"guangzhou":"20","zhuhai":"20"},"home":{"price":"5W","data":"10"}}'
    'values':就全部输出值就好了。允许值和默认值取决于type参数的值。v='[["a",1],["b",2]]'
    当想要转化的格式为'series'
        允许的orients为 {'split','records','index'}
        默认为index
        当orient为index时,Series的行索引index必须唯一
    当想要转化的格式为‘frame’时
        允许的orients为{'split','records','index'}
        默认定义为columns,列索引
        当指定的orien为index或是columns时,Dataframe的index必须唯一
        当指定的orient为index、columns和records时,Dataframe的columns必须唯一
        版本0.23.0中的新增内容:“table”作为orient参数的允许值
typ:指定将JSON文件转化的格式,(series or frame),默认为frame
dtype:如果为True,则推断数据类型,如果将列的dict转换为数据类型,则使用它们,如果为False,则根本不推断数据类型,仅适用于数据。
convert_axes:将轴转换为正确的数据类型。默认为True
convert_dates:boolean类型,默认True。用于解析时间数据,如果为True,则将选定带有以下的datelike列名称标签:
    it ends with '_at',以_at结尾
    it ends with '_time',以_time结尾
    it begins with 'timestamp',以timestamp开始
    it is 'modified', 以modified命名的label标签
    it is 'date'以date命名的label标签
keep_default_dates:boolean类型,默认为True。如果分析日期,则分析默认的datelike列
numpy:默认为False,直接解码到numpy阵列。仅支持数字数据,但不支持非数字列和索引标签。还要注意,如果numpy=True,则每个术语的JSON顺序必须相同。
precise_float:boolean类型,默认False。设置为在将字符串解码为双倍值时启用更高精度(STROD)函数。默认(False)使用快速但不太精确的内置功能。
date_unit:string类型,默认None。用于检测是否转换日期的时间戳单元。默认行为是尝试并检测正确的精度,但如果不需要,则传递“s”、“ms”、“us”或“ns”中的一个,以分别强制解析秒、毫秒、微秒或纳秒。
lines:boolean类型,默认False。以每行json对象的形式读取文件。
encoding:str, default is ‘utf-8’。用于解码py3字节的编码。
chunksize:integer类型,默认为None。返回JsonReader对象进行迭代。有关chunksize的更多信息,请参阅line-delimted json docs文件。只有当lines=True时,才能传递此消息。如果该值为“无”,则文件将一次全部读入内存。
compression:{‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None},默认为infer。用于实时解压缩磁盘数据。如果“推断”,则使用gzip、bz2、zip或xz,如果path\u或\u buf是以“”结尾的字符串。gz','。bz2’,”。zip”或“xz”,否则不进行解压缩。如果使用“zip”,zip文件必须只包含一个要读入的数据文件。设置为“无”表示无解压缩。

1.4.1 读取json字符串

strtext='[{"ttery":"min","issue":"20130801-3391","code":"8,4,5,2,9","code1":"297734529","code2":null,"time":1013395466000},\
{"ttery":"min","issue":"20130801-3390","code":"7,8,2,1,2","code1":"298058212","code2":null,"time":1013395406000},\
{"ttery":"min","issue":"20130801-3389","code":"5,9,1,2,9","code1":"298329129","code2":null,"time":1013395346000},\
{"ttery":"min","issue":"20130801-3388","code":"3,8,7,3,3","code1":"298588733","code2":null,"time":1013395286000},\
{"ttery":"min","issue":"20130801-3387","code":"0,8,5,2,7","code1":"298818527","code2":null,"time":1013395226000}]'
df=pd.read_json(strtext,orient='records')

输出为:



1.4.2 读取json文件

json文件:

{"哺乳动物":["虎","猴子","狗","猫","鹿"],
  "鱼类动物":["龙鱼","鲶鱼","鳟鱼","章鱼","草鱼"],
  "飞禽类动物":["丹顶鹤","金雕","白鹭","鸽子","天鹅"],
  "昆虫类动物":["蝴蝶","金龟子","蜜蜂","蜻蜓","螳螂"]}



import pandas as pd
json_data = pd.read_json('Animal_species.json', 
                    encoding='utf8')
json_data

输出为:


1.5 读取HTML数据

从HTML表格获取数据

数据除了在文件中呈现,还可以在网页的HTML表格中呈现,为此Pandas提供了用于从HTML网页表格中读取数据的read_html()函数。

pandas.read_html(io, match='.+', flavor=None, header=None,
         index_col=None,skiprows=None, attrs=None, parse_dates=False,
         tupleize_cols=None, thousands=', ', encoding=None, decimal='.',
         converters=None,na_values=None, keep_default_na=True,
         displayed_only=True)

match:表示返回与指定的正则表达式或字符串匹配的文本。

flavor:表示使用的解析引擎。

index_col:表示将网页表格中的列标题作为DataFrame的行索引。

encoding:表示解析网页的编码方式。

需要注意的是,read_html()函数只能用于读取网页中的表格数据,该函数会返回一个包含网页中所有表格数据的列表。

我们可通过索引获取对应位置的表格数据。

import requests  
html_data = requests.get('https://www.tiobe.com/tiobe-index/')
html_table_data = pd.read_html(html_data.content,encoding='utf-8')
html_table_data[3].head(5)

输出为:

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/04d9ecfc08b3430f87e7813b4b308026.png

1.6 读取数据库文件

有时我们需要从 SQL 中读取数据,如果先将数据导出再pandas读取并不是一个合适的选择。

在 pandas 中支持直接从 sql 中查询并读取。

掌握

read_sql_table()
read_sql_query()
read_sql()

函数的用法,可以熟练地使用这些方法从数据库中获取数据

数据除了被保存在CSV、TXT、Excel等文件中,还可以被保存在数据库中。常见的数据库有MySQL、Oracle、SQLite、PostgreSQL等,其中MySQL是主流的关系型数据库,它主要以数据表的形式组织数据。

Pandas读取MySQL数据库时需要保证当前的环境中已经安装了SQLAlchemy和PyMySQL模块,其中SQLAlchemy模块提供了与不同数据库连接的功能,而PyMySQL模块提供了Python操作MySQL数据库的功能。

pip install SQLAlchemy  # 安装SQLAlchemy模块
pip install PyMySQL      # 安装PyMySQL模块


read_sql_table()、read_sql_query()和read_sql()这3个函数的使用方式基本相同,这里以read_sql()函数为例进行介绍。

pandas.read_sql(sql, con, index_col=None, coerce_float=True, params=None,
     parse_dates=None, columns=None, chunksize=None)

sql:表示被执行的SQL查询语句或数据表名。

con:表示使用SQLAlchemy连接数据库。

index_col:表示将数据表中的列标题作为DataFrame的行索引。。

coerce_float:表示是否将非字符串、非数字对象的值转换为浮点值(可能会导致精度损失),默认为True。

1.6.1 读取sql数据

为了方便统一操作,请先执行下面的代码创建数据。

/*
 Navicat Premium Data Transfer
 Source Server         : localhost
 Source Server Type    : MySQL
 Source Server Version : 50723
 Source Host           : localhost:3306
 Source Schema         : jifenkaohe
 Target Server Type    : MySQL
 Target Server Version : 50723
 File Encoding         : 65001
 Date: 10/11/2021 08:58:53
*/
SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;
-- ----------------------------
-- Table structure for dep_info
-- ----------------------------
CREATE DATABASE IF NOT EXISTS jifenkaohe;
DROP TABLE IF EXISTS `dep_info`;
CREATE TABLE `dep_info`  (
  `dep_id` int(11) NOT NULL,
  `dep_name` varchar(64) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
  PRIMARY KEY (`dep_id`) USING BTREE,
  INDEX `idx_dep_name`(`dep_name`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Records of dep_info
-- ----------------------------
INSERT INTO `dep_info` VALUES (8, '凯里学院');
INSERT INTO `dep_info` VALUES (1, '商丘师范学院');
INSERT INTO `dep_info` VALUES (5, '山东英才学院');
INSERT INTO `dep_info` VALUES (7, '山东财经大学东方学院');
INSERT INTO `dep_info` VALUES (11, '枣庄学院');
INSERT INTO `dep_info` VALUES (6, '池州学院');
INSERT INTO `dep_info` VALUES (9, '河北民族师范学院');
INSERT INTO `dep_info` VALUES (3, '河南城建学院');
INSERT INTO `dep_info` VALUES (4, '洛阳理工学院');
INSERT INTO `dep_info` VALUES (2, '许昌学院');
INSERT INTO `dep_info` VALUES (10, '辽宁科技学院');
SET FOREIGN_KEY_CHECKS = 1;

连接数据库

from sqlalchemy import create_engine  
import pandas as pd
db_info = {'user':'root',  
    'pwd':'XXXX',  # 修改为你的密码
    'host':'localhost',  
    'database':'XXX'  # 这里我们事先指定了数据库,后续操作只需要表即可
}  
#这里直接使用pymysql连接,echo=True,会显示在加载数据库所执行的SQL语句。      
engine = create_engine('mysql+pymysql://%(user)s:%(pwd)s@%(host)s/%(database)s?charset=utf8' % db_info,encoding='utf-8')  

执行sql查询

data = pd.read_sql('SELECT dep_id, dep_name FROM dep_info', con = engine)
data

输出为:


相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
相关文章
|
1月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
292 0
|
6月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
565 13
Pandas数据合并:10种高效连接技巧与常见问题
|
9月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
532 100
Pandas高级数据处理:数据流式计算
|
9月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
231 31
|
9月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
182 12
|
9月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
192 17
|
9月前
|
数据采集 存储 数据可视化
Pandas高级数据处理:数据报告生成
Pandas 是数据分析领域不可或缺的工具,支持多种文件格式的数据读取与写入、数据清洗、筛选与过滤。本文从基础到高级,介绍如何使用 Pandas 进行数据处理,并解决常见问题和报错,如数据类型不一致、时间格式解析错误、内存不足等。最后,通过数据汇总、可视化和报告导出,生成专业的数据报告,帮助你在实际工作中更加高效地处理数据。
255 8
|
9月前
|
数据采集 并行计算 数据可视化
Pandas高级数据处理:数据报告生成实战指南
数据报告生成面临数据质量、计算性能、呈现形式和自动化等核心挑战。常见问题包括缺失值导致统计失真、内存溢出及可视化困难。解决方案涵盖数据清洗、分块处理、安全绘图模板等。通过模块化设计、异常处理机制和性能优化策略,如使用`category`类型、并行计算等,可大幅提升效率。最佳实践建议建立数据质量检查清单、版本控制和自动化测试框架,确保系统具备自适应能力,提升报告生成效率300%以上。
211 12
|
10月前
|
数据采集 供应链 数据可视化
Pandas数据应用:供应链优化
在当今全球化的商业环境中,供应链管理日益复杂。Pandas作为Python的强大数据分析库,能有效处理库存、物流和生产计划中的大量数据。本文介绍如何用Pandas优化供应链,涵盖数据导入、清洗、类型转换、分析与可视化,并探讨常见问题及解决方案,帮助读者在供应链项目中更加得心应手。
198 21
|
10月前
|
机器学习/深度学习 搜索推荐 数据挖掘
Pandas数据应用:广告效果评估
在数字化营销中,广告效果评估至关重要。Pandas作为Python的强大数据分析库,在处理广告数据时表现出色。本文介绍如何使用Pandas进行广告效果评估,涵盖数据读取、预览、缺失值处理、数据类型转换及常见报错解决方法,并通过代码案例详细解释。掌握这些技能,可为深入分析广告效果打下坚实基础。
189 17

热门文章

最新文章