《Python和HDF 5大数据应用》——2.2 设置

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介:

本节书摘来自异步社区《Python和HDF 5大数据应用》一书中的第2章,第2.2节,作者[美]Andrew Collette(科莱特),胡世杰 译,更多章节内容可以访问云栖社区“异步社区”公众号查看。

2.2 设置

背景就介绍到这里。现在让我们开始使用Python!不过,用哪个Python?

2.2.1 Python2还是Python3

Python社区正在经历一场大变。多年以来Python已经积攒了一大堆功能和错误,比如不遵守命名规范的模块或者字符串处理上的缺陷等。为了解决这些问题,人们决定启动Python 3,从Python 2过去的错误中释放出一个全新的Python主版本。

Python 2.7将是最后一个2.X的发行版。虽然为了修理bug,对它的更新还会继续持续一段时间,但是新的Python代码开发工作将只在3.X上进行。NumPy、h5py、PyTables以及其他很多模块现在都支持Python 3。虽然(我认为)对新手直接推荐Python 3还有些操之过急,但未来的趋势却是已经十分明显。

目前来说,两大版本的Python还将同时存在一段时间。因为Python社区的大多数用户都已经习惯了Python 2,本书中的例子也都是以Python 2写就。两大版本在大多数地方都仅有细微差别。比如,Python 3中print的格式是print(foo),而不是print foo。在本书的任何地方,只要出现由于Python版本差异导致的不一致(主要是有关字符串类型和某些字典形式的方法),都会在文本中加以标明。

将Python 2代码“移植”到Python 3并不难,毕竟都是Python。Python 3中一些最有价值的功能其实已经存在于Python 2.7中了。有一个免费工具(2to3)可以自动完成大部分改动,比如将print语句转换成print()函数调用。你可以在http://www.python.org 查阅移植手册(以及2to3 工具)。

2.2.2 代码示例

大多数代码示例都将遵循下面的形式:


screenshot

或者是下面这样更加简单的形式(得益于Python会默认打印出对象):


screenshot

以>>>开头的行代表Python的输入(>>>是Python的默认提示符),其余行代表输出。在某些较长的代码样例中,如果没有显示程序的输出,那么为了清晰起见,我们会略去>>>。

需要在命令行执行的样例会以Unix风格的“$”提示符开头:


screenshot

最后,为了避免样例过于冗杂,大多数代码都默认你已经导入了下面的模块:


screenshot

2.2.3 NumPy

“NumPy”是世界公认的Python数值型数组模块。本书默认你已经有一定的NumPy经验(当然也包括Python的经验),包括如何使用数组对象。

就算你以前用过NumPy,复习一下NumPy数组的一些基本概念还是有必要的。首先,所有的NumPy数组都有一个固定数据类型“dtype”,由dtype对象表示。下面的例子会创建一个具有10个整型元素的简单数组:


screenshot

我们可以通过arr.dtype获得数组中数据的类型:


screenshot

NumPy通过这些dtype对象来获取内存中数据的类型这种底层信息。本例中我们的10元素数组内的数据是4字节(32位)的整型,NumPy称其为int32。在内存的某处有一个40字节长度的区域保存了0到9这10个值。接收这个arr对象的代码可以根据其dtype属性解析这块内存中的实际内容。

提示

上例在你的系统可能打印出dtype(int64)。这意味着你系统中的Python默认的整型长度是64位而非32位。

HDF5使用了类似的类型系统。HDF5文件中每一个“数组”,也就是数据集,都有一个固定的类型对象表示其类型。h5py模块会自动将HDF5类型系统映射为NumPy的dtype,这使得两者之间的数据交换变得简便。第3章会详细介绍这一过程。

数组切片是NumPy的另一核心功能。这意味着可以对NumPy数组的局部进行访问。下例会抽取arr数组的前4个元素:


 screenshot

你还可以指定切片中每两个点之间的距离:


screenshot

在使用HDF5时,我们也会借用这样的“切片”格式来读取一个数据集的部分数据。

在NumPy的世界里,切片以一种高明的方式实现:新创建的数组引用原始数组中的数据而不是另外复制一份。比如,下面的out对象就是原始数组arr的一个视图,我们可以做这样的测试:


screenshot

这意味着切片操作将会非常迅速。但如果你需要修改切片数组而又不希望这个修改影响原始数组时,就必须显式进行复制:


screenshot

警告

忘记在修改切片数组前进行复制是一个常见的错误,尤其是对于那些习惯了IDL的人来说。如果你是NumPy新手,你需要特别小心!

幸好HDF5数据集的“切片”并不是这样。当你读取文件时,由于数据保存在磁盘上,你得到的始终是一个复制。

2.2.4 HDF5和h5py

我们将会通过“h5py”模块来使用HDF5。该模块包含了文件、组、数据集以及特征等HDF对象的上层封装类,同时还包含了HDF5的C语言数据结构和函数的底层封装类。本书中的样例假定h5py的版本是2.2.0或更高,你可以从http://www.h5py.org 获取。

值得注意的是h5py并不是唯一一个跟HDF5打交道的常用模块。PyTables(http://www.pytables.org )是一个基于HDF5的科学数据库模块并增加了数据集索引和额外的类型系统。不过我们这里只关注原生HDF5,所以我们将只讨论h5py,但我强烈推荐你去调查一下PyTables,看看它有没有什么吸引你的功能。

如果你使用Linux,最好用包管理器安装HDF5标准库。Windows上,你可以从http://www.h5py.org 下载安装程序或下载某个自带HDF5/h5py的Python安装包,如PythonXY,Continuum Analytics公司提供的Anaconda,或者Enthought公司提供的Python安装包等。

2.2.5 IPython

如果你想用Python进行大规模分析或开发,那么除了NumPy和h5py/HDF5以外,IPython也是一个必需的组件。IPython最基本的功能是一个可以增添如命令历史和TAB补全等特性的解释器shell,可用于替换Python。除此之外它还具有如并发处理、MATLAB风格的记事本等很多额外的功能。

想要了解本书中所提到的特性最好的方法就是打开IPython提示符,然后输入本书的样例。光TAB补全这一个功能就很不错了,因为它能够让你快速查阅模块和对象的特征。h5py模块在设计上就充分考虑了这种可查阅能力。比如,如果你需要查看File对象上具有哪些属性和方法(2.4节),输入h5py.File,然后按TAB键:


screenshot

如果需要获得某个属性或方法更多的信息,只需要在其名字后面使用“?”即可:


screenshot

提示

IPython默认会在一个特殊的隐藏变量中记录你语句的输出。一般来说这没什么问题,但是如果它记录了某个你认为已经丢弃的HDF5对象,或者一个耗费大量内存的大数组,那它也许就会让你大吃一惊。你可以将IPython的配置项cache_size设置为0来关闭这一功能。详情请见http://ipython.org中的文档。

2.2.6 时间和优化

我们用Python内置的timeit模块来进行性能测试。相关样例会默认你已经导入了timeit模块,如下所示:


screenshot

timeit函数需要一个可执行命令(字符串或可执行对象)和一个可选参数指定其运行次数。然后它会打印出执行该命令花费的总时间。在下面的例子里,我们将执行5次time.sleep:


screenshot

IPython有一个类似的内建“魔法”函数%timeit,它可以多次执行给定的语句并报告最短执行时间:


screenshot

考虑到普通的timeit函数是由Python标准库提供的,我们在本书中将只使用普通的timeit函数。

既然人们用HDF5处理的一般都是大数据集,那么性能就是一个不得不考虑的问题。不过你会注意到本书对于性能优化和性能测试的讨论将不会深入到缓存命中、数据转换率等细节。h5py模块的设计将所有这些细节都交给HDF5掌管。开发者们在HDF5性能调优上凝结了上千人几年的心血,已经达到了可能的极致。

作为一个应用程序开发者,在性能上你能做的最好的事就是明智地使用API并让HDF5来做背后的工作。下面是一些建议:

1.不要优化任何东西,除非存在可以验证的性能问题。在改变任何东西之前先仔细隔离可能导致错误行为的代码部分。

2.先从简单直观的代码开始,充分利用API提供的功能。比如,当你需要遍历一个文件中所有的对象时,应该使用HDF5的Visitor功能(63页,用Visitor模式多级遍历)而不是用你自己粗制滥造的方法。

3.首先考虑算法上的改进。比如,在写入一个数据集(见第3章)时,每次写入一个合理大小的块而不是一个值一个值地写。这使得HDF5可以充分利用文件系统。

4.确保你使用了正确的数据类型。比如你正在运行一个计算密集型程序,它的功能是从文件中读取浮点数,如果计算只要求单精度,那么你最好使用双精度浮点。

5.最后,勇于在h5py邮件列表、NumPy/Scipy邮件列表、Stack Overflow或别的社区网站上提问。这些年来已经有无数人在使用NumPy和HDF5,大多数的性能问题都有一个已知的解决方案。Python社区欢迎你。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
1月前
|
机器学习/深度学习 存储 数据挖掘
Python图像处理实用指南:PIL库的多样化应用
本文介绍Python中PIL库在图像处理中的多样化应用,涵盖裁剪、调整大小、旋转、模糊、锐化、亮度和对比度调整、翻转、压缩及添加滤镜等操作。通过具体代码示例,展示如何轻松实现这些功能,帮助读者掌握高效图像处理技术,适用于图片美化、数据分析及机器学习等领域。
74 20
|
2月前
|
存储 数据采集 人工智能
Python编程入门:从零基础到实战应用
本文是一篇面向初学者的Python编程教程,旨在帮助读者从零开始学习Python编程语言。文章首先介绍了Python的基本概念和特点,然后通过一个简单的例子展示了如何编写Python代码。接下来,文章详细介绍了Python的数据类型、变量、运算符、控制结构、函数等基本语法知识。最后,文章通过一个实战项目——制作一个简单的计算器程序,帮助读者巩固所学知识并提高编程技能。
|
3月前
|
机器学习/深度学习 Python
堆叠集成策略的原理、实现方法及Python应用。堆叠通过多层模型组合,先用不同基础模型生成预测,再用元学习器整合这些预测,提升模型性能
本文深入探讨了堆叠集成策略的原理、实现方法及Python应用。堆叠通过多层模型组合,先用不同基础模型生成预测,再用元学习器整合这些预测,提升模型性能。文章详细介绍了堆叠的实现步骤,包括数据准备、基础模型训练、新训练集构建及元学习器训练,并讨论了其优缺点。
168 3
|
2天前
|
算法 Serverless 数据处理
从集思录可转债数据探秘:Python与C++实现的移动平均算法应用
本文探讨了如何利用移动平均算法分析集思录提供的可转债数据,帮助投资者把握价格趋势。通过Python和C++两种编程语言实现简单移动平均(SMA),展示了数据处理的具体方法。Python代码借助`pandas`库轻松计算5日SMA,而C++代码则通过高效的数据处理展示了SMA的计算过程。集思录平台提供了详尽且及时的可转债数据,助力投资者结合算法与社区讨论,做出更明智的投资决策。掌握这些工具和技术,有助于在复杂多变的金融市场中挖掘更多价值。
24 12
|
1天前
|
存储 人工智能 程序员
通义灵码AI程序员实战:从零构建Python记账本应用的开发全解析
本文通过开发Python记账本应用的真实案例,展示通义灵码AI程序员2.0的代码生成能力。从需求分析到功能实现、界面升级及测试覆盖,AI程序员展现了需求转化、技术选型、测试驱动和代码可维护性等核心价值。文中详细解析了如何使用Python标准库和tkinter库实现命令行及图形化界面,并生成单元测试用例,确保应用的稳定性和可维护性。尽管AI工具显著提升开发效率,但用户仍需具备编程基础以进行调试和优化。
70 9
|
1天前
|
算法 安全 网络安全
基于 Python 的布隆过滤器算法在内网行为管理中的应用探究
在复杂多变的网络环境中,内网行为管理至关重要。本文介绍布隆过滤器(Bloom Filter),一种高效的空间节省型概率数据结构,用于判断元素是否存在于集合中。通过多个哈希函数映射到位数组,实现快速访问控制。Python代码示例展示了如何构建和使用布隆过滤器,有效提升企业内网安全性和资源管理效率。
27 9
|
1月前
|
机器学习/深度学习 人工智能 分布式计算
我的阿里云社区年度总结报告:Python、人工智能与大数据领域的探索之旅
我的阿里云社区年度总结报告:Python、人工智能与大数据领域的探索之旅
118 35
|
23天前
|
人工智能 开发者 Python
Chainlit:一个开源的异步Python框架,快速构建生产级对话式 AI 应用
Chainlit 是一个开源的异步 Python 框架,帮助开发者在几分钟内构建可扩展的对话式 AI 或代理应用,支持多种工具和服务集成。
143 9
|
2月前
|
算法 数据处理 Python
高精度保形滤波器Savitzky-Golay的数学原理、Python实现与工程应用
Savitzky-Golay滤波器是一种基于局部多项式回归的数字滤波器,广泛应用于信号处理领域。它通过线性最小二乘法拟合低阶多项式到滑动窗口中的数据点,在降噪的同时保持信号的关键特征,如峰值和谷值。本文介绍了该滤波器的原理、实现及应用,展示了其在Python中的具体实现,并分析了不同参数对滤波效果的影响。适合需要保持信号特征的应用场景。
174 11
高精度保形滤波器Savitzky-Golay的数学原理、Python实现与工程应用
|
29天前
|
存储 SQL 大数据
Python 在企业级应用中的两大硬伤
关系数据库和SQL在企业级应用中面临诸多挑战,如复杂SQL难以移植、数据库负担重、应用间强耦合等。Python虽是替代选择,但在大数据运算和版本管理方面存在不足。SPL(esProc Structured Programming Language)作为开源语言,专门针对结构化数据计算,解决了Python的这些硬伤。它提供高效的大数据运算能力、并行处理、高性能文件存储格式(如btx、ctx),以及一致的版本管理,确保企业级应用的稳定性和高性能。此外,SPL与Java无缝集成,适合现代J2EE体系应用,简化开发并提升性能。

热门文章

最新文章