Python秒开100G数据是怎么办到的?

简介: Python秒开100G数据是怎么办到的?

Python秒开100G数据是怎么办到的?

在这个数据爆炸的时代,我们通常要对海量的数据进行分析,少则几十G,多则上百G,对于这样的数据我们打开都很困难,又该如何分析呢?通常都会采取下面几个方案:

  • 对数据抽样;
  • 使用分布式计算;
  • 使用强大的服务器。

本文让我们来了解一个低成本又速度快的方法,使用一个强大的Python库-vaex来实现海量数据的读取和操作。

在这里插入图片描述

Vaex是一个开源的DataFrame库,它可以对表格数据集进行可视化、探索、分析,甚至机器学习,这些数据集和你的硬盘驱动器一样大。它可以在一个n维网格上每秒计算超过10亿(10^9)个对象的平均值、和、计数、标准差等统计信息。可视化使用直方图、使用直方图、密度图和3D立体渲染进行可视化。为此,Vaex采用了内存映射、高效的外核算法和延迟计算等概念来获得最佳性能(不浪费内存)。所有这些都封装在一个类似Pandas的API中。

安装vaex

vaex的安装方式和其他的库没有什么不同,我们直接pip安装即可,安装的时候会一并安装很多关联的库,所以推荐使用国内的镜像进行安装。

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple vaex

使用vaex

在使用之前我们先来看一下官方给出的读取100G数据时的效率。

在这里插入图片描述

根据上图可以看到打开了一个107G的数据用了52毫秒,下面让我们用一个小一些的样本来检验一下。

把CSV数据转换成hdf5

在vaex中提供了把csv数据转换成hdf5(内存可映射文件格式)数据的方式,内存可映射格式后,即使在磁盘上的大小超过100GB,也可以使用Vaex即时打开。

df = vaex.open('Data_Action_201602.csv')
df.export_hdf5('Data_Action_201602.hdf5')

先来看一下我要使用的数据大小:

!ls -l -h Data_Action_201602.hdf5
-rw-r--r--  1 seven  staff   778M  7 16 14:31 Data_Action_201602.hdf5

使用vaex

从上面的信息可以看到,数据的大小有778M,我们如果用pandas打开该数据的话估计也需要很久的时间,下面让我们来尝试一下使用vaex。

博主电脑配置:2018MacPro+六核Intel Core i7+16G RAM。

%%time
df = vaex.open('Data_Action_201602.hdf5')
CPU times: user 5.06 ms, sys: 1.54 ms, total: 6.6 ms
Wall time: 15.7 ms

可以看到,我们耗时15.7毫秒,在一瞬间就完成了打开文件的操作,下面再进行一个快速检查数据的操作:

%%time
df

在这里插入图片描述

根据结果可以看出,阅览数据的时候仅仅用了4微秒,这有多快我就不必多说了吧~

再让我们使用describe方法获得 DataFrame 的高级概览来看一下。

%%time
df.describe()

在这里插入图片描述

可以看到1000万条的数据的计算时间还不到1秒,的确是快到飞起。

vaex的简便操作

光从简单的数据操作上还不足以让我们想要使用vaex,下面来简单介绍几种之前让我们头疼的想法,看一下vaex是怎么实现的。

在使用pandas的时候,我们很难直接对两列中所有的数据进行运算操作,但是vaex重新封装了这些操作,使得这种运算是完全可行的:

df['new_data'] = (df.type + df.cate)*100
df.new_data.values
array([ 900, 1400,  900, ..., 1400, 1400, 1400])

筛选数据:

df.select(df.new_data<1000)
df.evaluate(df.new_data, selection=True)
array([900, 900, 600, ..., 800, 800, 500])

统计学计算:

df.count(), df.mean(df.new_data), df.mean(df.new_data, selection=True)
(array(11485424), array(1027.95480602), array(701.08164584))

除了这些,vaex还提供了很多简单的函数功能,同时该数据也可以直接用于图表的绘制,具体可以参考文末给出的操作文档。

为什么要选择vaex

看完了vaex的一些简单操作,下面再来看一下为什么要选择vaex:

  • 性能:处理海量表格数据,每秒处理超过十亿行
  • 虚拟列:动态计算,不浪费内存
  • 高效的内存在执行过滤/选择/子集时没有内存副本。
  • 可视化:直接支持,单线通常就足够了。
  • 用户友好的API:只需处理一个数据集对象,制表符补全和docstring可以帮助你:ds.mean,类似于Pandas。
  • 精益:分成多个包
  • Jupyter集成:vaex-jupyter将在Jupyter笔记本和Jupyter实验室中提供交互式可视化和选择。

vaex的相关网站

Vaex 官方网站:https://vaex.io/

文档:https://docs.vaex.io/

GitHub:https : //github.com/vaexio/vaex

PyPi:https://pypi.python.org/pypi/vaex/

相关文章
|
27天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
11天前
|
图形学 Python
SciPy 空间数据2
凸包(Convex Hull)是计算几何中的概念,指包含给定点集的所有凸集的交集。可以通过 `ConvexHull()` 方法创建凸包。示例代码展示了如何使用 `scipy` 库和 `matplotlib` 绘制给定点集的凸包。
21 1
|
12天前
|
JSON 数据格式 索引
Python中序列化/反序列化JSON格式的数据
【11月更文挑战第4天】本文介绍了 Python 中使用 `json` 模块进行序列化和反序列化的操作。序列化是指将 Python 对象(如字典、列表)转换为 JSON 字符串,主要使用 `json.dumps` 方法。示例包括基本的字典和列表序列化,以及自定义类的序列化。反序列化则是将 JSON 字符串转换回 Python 对象,使用 `json.loads` 方法。文中还提供了具体的代码示例,展示了如何处理不同类型的 Python 对象。
|
13天前
|
数据采集 Web App开发 iOS开发
如何使用 Python 语言的正则表达式进行网页数据的爬取?
使用 Python 进行网页数据爬取的步骤包括:1. 安装必要库(requests、re、bs4);2. 发送 HTTP 请求获取网页内容;3. 使用正则表达式提取数据;4. 数据清洗和处理;5. 循环遍历多个页面。通过这些步骤,可以高效地从网页中提取所需信息。
|
25天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
53 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
1月前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
46 2
|
11天前
|
索引 Python
SciPy 空间数据1
SciPy 通过 `scipy.spatial` 模块处理空间数据,如判断点是否在边界内、计算最近点等。三角测量是通过测量角度来确定目标距离的方法。多边形的三角测量可将其分解为多个三角形,用于计算面积。Delaunay 三角剖分是一种常用方法,可以对一系列点进行三角剖分。示例代码展示了如何使用 `Delaunay()` 函数创建三角形并绘制。
21 0
|
18天前
|
数据采集 存储 数据挖掘
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第27天】在数据分析领域,Python的Pandas库因其强大的数据处理能力而备受青睐。本文介绍了Pandas在数据导入、清洗、转换、聚合、时间序列分析和数据合并等方面的高效技巧,帮助数据分析师快速处理复杂数据集,提高工作效率。
48 0
|
12天前
|
机器学习/深度学习 数据采集 数据挖掘
解锁 Python 数据分析新境界:Pandas 与 NumPy 高级技巧深度剖析
Pandas 和 NumPy 是 Python 中不可或缺的数据处理和分析工具。本文通过实际案例深入剖析了 Pandas 的数据清洗、NumPy 的数组运算、结合两者进行数据分析和特征工程,以及 Pandas 的时间序列处理功能。这些高级技巧能够帮助我们更高效、准确地处理和分析数据,为决策提供支持。
29 2
|
19天前
|
存储 数据挖掘 数据处理
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第26天】Python 是数据分析领域的热门语言,Pandas 库以其高效的数据处理功能成为数据科学家的利器。本文介绍 Pandas 在数据读取、筛选、分组、转换和合并等方面的高效技巧,并通过示例代码展示其实际应用。
31 2