Pandas vs Spark:数据读取篇

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 按照前文所述,本篇开始Pandas和Spark常用数据处理方法对比系列。数据处理的第一个环节当然是数据读取,所以本文就围绕两个框架常用的数据读取方法做以介绍和对比。

640.png

数据读取是所有数据处理分析的第一步,而Pandas和Spark作为常用的计算框架,都对常用的数据源读取内置了相应接口。总体而言,数据读取可分为从文件读取和从数据库读取两大类,其中数据库读取包含了主流的数据库,从文件读取又区分为不同的文件类型。基于此,本文首先分别介绍Pandas和Spark常用的数据读取API,而后进行简要对比分析。


01 Pandas常用数据读取方法


Pandas内置了丰富的数据读取API,且都是形如pd.read_xxx格式,通过对pd顶级接口方法进行过滤,得到Pandas中支持的数据读取API列表如下:


640.png

  过滤pandas中以read开头的方法名称


按照个人使用频率,对主要API接口介绍如下:

  • read_sql:用于从关系型数据库中读取数据,涵盖了主流的常用数据库支持,一般来讲pd.read_sql的第一个参数是SQL查询语句,第二个参数是数据库连接驱动,所以从这个角度讲read_sql相当于对各种数据库读取方法的二次包装和集成;
  • read_csv:其使用频率不亚于read_sql,而且有时考虑数据读取效率问题甚至常常会首先将数据从数据库中转储为csv文件,而后再用read_csv获取。这一转储的过程目的有二:一是提高读取速度,二是降低数据读取过程中的运行内存占用(实测同样的数据转储为csv文件后再读取,内存占用会更低一些);
  • read_excel:其实也是对xlrd库的二次封装,用来读取Excel文件会更加方便,但日常使用不多;
  • read_json:json文件本质上也属于结构化数据,所以也可将其读取为DataFrame类型,但如果嵌套层级差别较大的话,读取起来不是很合适;
  • read_html:这应该算是Pandas提供的一个小彩蛋了,表面上看它就是一个用于读取html文件中数据表格的接口,但实际上有人却拿他来干着爬虫的事情……
  • read_clipboard:这可以算是Pandas提供的另一个小彩蛋,用于从剪切板中读取结构化数据到DataFrame中。至于数据是如何到剪切板中的,那方式可能就多种多样了,比如从数据库中复制、从excel或者csv文件中复制,进而可以方便的用于读取小型的结构化数据,而不用大费周章的连接数据库或者找到文件路径!
  • read_table:可用于读取txt文件,使用频率不高;
  • read_parquet:Parquet是大数据中的标志性文件,Pandas也对其予以支持,但依赖还是很复杂的;
  • 另外,还有ocr和pickle等文件类型,其中OCR是Hive中的标准数据文件类型,与Parquet类似,也是列式存储,虽然Pandas也提供支持,但既然是大数据,其实与Pandas已经关系不大了;而pickle则是python中常用的序列化存储格式。


在以上方法中,重点掌握和极为常用的数据读取方法当属read_sql和read_csv两种,尤其是read_csv不仅效率高,而且支持非常丰富的参数设置,例如支持跳过指定行数(skip_rows)后读取一定行数(nrows)的数据,就是这个小技巧使得曾经小内存的我也能得以处理大数据,着实欣喜!


02 Spark常用数据读取方法


与Pandas类似,Spark也提供了丰富的数据读取API,对于常用的数据读取方法也都给予了非常好的支持。这里以Scala Spark为例,通过tab键补全命令查看常用的数据读取方法如下:


640.png

       通过spark-shell的tab键补全得到spark.read.的系列方法


可以明显注意到Spark的数据读取API与Pandas接口名称的一个显著区别是:Spark采用二级接口的方式,即首先调用read属性获取读接口的类,然后再区分数据源细分为各种类型;而Pandas则是直接提供了read_各数据类型的API。仍然按照使用频率来分:


  • spark.read.parquet:前面已经提到,parquet是大数据中的标准文件存储格式,也是Apache的顶级项目,相较于OCR而言,Parquet更为流行和通用。Parquet的优势也不少,包括内置了数据Schema、高效的压缩存储等;
  • spark.read.jdbc:通过jdbc提供了对读取各主流数据库的支持,由于其实际上也是一个类,所以相应的参数设置都要依托option方法来进行传递,最后通过执行load实现数据的读取。但不得不说,spark内置的一些默认参数相较于Pandas而言合理性要差很多,例如fetchSize默认为10,这对于大数据读取而言简直是致命的打击,谁用谁知道……
  • spark.read.csv:spark对于csv文件也给予了很好的支持,但参数配置相较于Pandas而言则要逊色很多
  • spark.read.textFile:典型的txt文件读取方式,相信很多人的一个Spark项目word count大多是从读取txt文件开始的吧,不过对于个人而言好像也仅仅是在写word count时才用到了read.textFile。
  • 其他也有read.json和read.orc等,但使用频率不高。


如果说Pandas读取数据库是最为常用的方法,那么Spark其实最为常用的当属Parquet,毕竟Parquet文件与Spark等同为Apache顶级项目,而且更具大数据特色,称得上是大数据文件存储的业界规范!


03 小结


整体来看,Pandas和Spark在数据读取方面都提供了丰富的接口,支持的数据源类型也大体相当。但对参数支持和易用性方面,Pandas对数据库和csv文件相对更加友好,而Spark与Parquet文件格式则更为搭配。虽然同为数据计算框架,但Pandas是单机计算模式,而Spark则是分布式计算,所以不同的数据量级也自然决定了数据源的侧重点不同,本无高下之分,只能说各有千秋。


640.png



相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
4月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
384 13
Pandas数据合并:10种高效连接技巧与常见问题
|
8月前
|
存储 人工智能 自然语言处理
Pandas数据应用:自然语言处理
本文介绍Pandas在自然语言处理(NLP)中的应用,涵盖数据准备、文本预处理、分词、去除停用词等常见任务,并通过代码示例详细解释。同时,针对常见的报错如`MemoryError`、`ValueError`和`KeyError`提供了解决方案。适合初学者逐步掌握Pandas与NLP结合的技巧。
217 20
|
8月前
|
存储 数据挖掘 计算机视觉
Pandas数据应用:图像处理
Pandas 是一个强大的 Python 数据分析库,主要用于处理结构化数据。尽管它不是专门为图像处理设计的,但可以利用其功能辅助图像处理任务。本文介绍如何使用 Pandas 进行图像处理,包括图像读取、显示、基本操作及常见问题解决方法。通过代码案例解释如何将图像转换为 DataFrame 格式,并探讨数据类型不匹配、内存溢出和颜色通道混淆等问题的解决方案。总结中指出,虽然 Pandas 可作为辅助工具,但在实际项目中建议结合专门的图像处理库如 OpenCV 等使用。
187 18
|
7月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
452 100
Pandas高级数据处理:数据流式计算
|
8月前
|
机器学习/深度学习 存储 算法
Pandas数据应用:客户流失预测
本文介绍如何使用Pandas进行客户流失预测,涵盖数据加载、预处理、特征工程和模型训练。通过解决常见问题(如文件路径错误、编码问题、列名不一致等),确保数据分析顺利进行。特征工程中创建新特征并转换数据类型,为模型训练做准备。最后,划分训练集与测试集,选择合适的机器学习算法构建模型,并讨论数据不平衡等问题的解决方案。掌握这些技巧有助于有效应对实际工作中的复杂情况。
226 95
|
8月前
|
机器学习/深度学习 数据采集 JSON
Pandas数据应用:机器学习预处理
本文介绍如何使用Pandas进行机器学习数据预处理,涵盖数据加载、缺失值处理、类型转换、标准化与归一化及分类变量编码等内容。常见问题包括文件路径错误、编码不正确、数据类型不符、缺失值处理不当等。通过代码案例详细解释每一步骤,并提供解决方案,确保数据质量,提升模型性能。
325 88
|
8月前
|
数据采集 存储 供应链
Pandas数据应用:库存管理
本文介绍Pandas在库存管理中的应用,涵盖数据读取、清洗、查询及常见报错的解决方法。通过具体代码示例,讲解如何处理多样数据来源、格式不一致、缺失值和重复数据等问题,并解决KeyError、ValueError等常见错误,帮助提高库存管理效率和准确性。
249 72
|
7月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
162 31
|
7月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
121 12
|
7月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
151 17

热门文章

最新文章