一份写给数据工程师的 Polars 迁移指南:将 Pandas 速度提升 20 倍代码重构实践

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: Polars作为现代化的数据处理框架,通过先进的工程实践和算法优化,为数据科学工作者提供了高效的数据处理工具。在从Pandas迁移时,理解这些核心概念和最佳实践将有助于充分发挥Polars的性能优势。

在大数据处理领域,性能和效率始终是核心问题。

polars

作为新一代数据处理框架,通过利用Rust语言的底层实现和现代化的并行计算架构,在处理大规模数据集时展现出显著的性能优势。根据性能测试文章的数据显示,在CSV文件读取操作中,

polars

的处理速度可达

pandas

的20倍。这种性能提升主要得益于其优化的内存管理机制和并行计算能力。

本文将系统地介绍如何从

pandas

迁移到

polars

,重点关注两个框架之间的语法对应关系和最佳实践。

📊 适用场景:

  • 处理大规模数据集的效率瓶颈
  • 需要提升数据处理性能的工程团队
  • 想要学习现代数据处理框架的工程师
  • 正在考虑技术栈升级的技术负责人

⚡️ 核心特性:

  • 20倍的性能提升潜力
  • 更低的内存占用
  • 完善的并行计算支持
  • 类 SQL 的声明式语法
  • 智能的查询优化器

1、环境配置与基础设置

首先需要通过pip包管理器安装必要的库:

 # Pandas安装
 pipinstallpandas

 # Polars安装
 pipinstallpolars

在Python环境中导入这些库:

 # Pandas导入语句
 importpandasaspd

 # Polars导入语句
 importpolarsaspl

推荐使用这些标准的别名(pd和pl),因为它们在数据科学社区中被广泛采用,有助于代码的可读性和维护性。

2、DataFrame的创建与基础操作

DataFrame是数据处理中的核心数据结构,代表二维表格数据:

 # Pandas中创建DataFrame
 df=pd.DataFrame({'a': [1, 1, 1], 'b': [2, 2, 2]})

 # Polars中创建DataFrame
 df=pl.DataFrame({'a': [1,1, 1], 'b': [2, 2, 2]})

这里的DataFrame创建展示了两个框架的基本语法相似性。两者都支持通过字典构造数据,其中键作为列名,值作为列数据。

3、数据导入操作

数据导入是数据分析的第一步,两个框架都提供了高效的数据读取接口:

 # Pandas读取CSV
 df=pd.read_csv('data.csv')

 # Polars读取CSV
 df=pl.read_csv('data.csv')

Polars的CSV读取实现了多线程并行处理,对于大型文件的读取性能显著优于Pandas。此外Polars还会自动推断最优的数据类型,减少内存使用。

4、数据检查与探索

数据探索是理解数据集特征的关键步骤:

 # Pandas数据探索方法
 df.head()  # 查看前几行数据
 df.info()  # 显示数据基本信息
 df.describe()  # 生成描述性统计

 # Polars数据探索方法
 df.head()  # 查看前几行数据
 df.schema  # 显示数据结构信息
 df.describe()  # 生成描述性统计

Polars的schema属性提供了更高效的数据类型查看机制,直接显示每列的数据类型,而不需要像Pandas的info()那样进行完整的内存统计。

5、列选择操作

列选择是数据处理中的基础操作,两个框架采用了不同的语法范式:

 # Pandas列选择
 df['a']  # 选择单列
 df[['a', 'b']]  # 选择多列

 # Polars列选择
 df.select('a')  # 选择单列
 df.select(['a', 'b'])  # 选择多列

Polars的select方法提供了更一致的API接口,可以与其他操作方法轻松链式调用。这种设计有助于构建更清晰的数据处理流程。

6、数据过滤技术

数据过滤是数据分析中的核心操作,用于根据特定条件选择数据子集:

 # Pandas过滤操作
 df[df['a'] >2]

 # Polars过滤操作
 df.filter(pl.col('a') >2)

Polars的过滤语法更加明确,使用

pl.col()

显式引用列,这种方式不仅提高了代码的可读性,还允许在复杂条件下更灵活的列操作。此外Polars的过滤操作在后台使用了向量化计算,提供更高的执行效率。

7、列操作与数据转换

最基本的列操作是添加新的计算列:

 # Pandas添加列
 df['c'] =df['a'] +df['b']

 # Polars添加列
 df=df.with_columns((pl.col('a') +pl.col('b')).alias('c'))

Polars的

with_columns

方法提供了一个声明式API,使操作更加清晰且可组合。

复杂的条件转换在数据处理中很常见:

 # Pandas条件转换
 df['b'] =df['a'].apply(lambdax: 1ifx=='high'else0ifx=='equal'else-1)

 # Polars条件转换
 df=df.with_columns(
     pl.when(pl.col('a') =='high')
       .then(1)
       .when(pl.col('a') =='equal')
       .then(0)
       .otherwise(-1)
       .alias('b')
 )

Polars的条件语法更接近SQL风格,提供了更清晰的逻辑流程,并且实现了更好的性能优化。

在实际应用中,经常需要基于某些列的条件来选择其他列的值:

 # Pandas列间条件选择
 df['d'] =df[['a','b','c']].apply(lambdax: x['a'] ifx['c'] >0.5elsex['b'])

 # Polars列间条件选择
 df=df.with_columns(
     pl.when(pl.col('c') >0.5)
       .then('a')    # 选择列a
       .otherwise('b')  # 选择列b
       .alias('d')
 )

8、列重命名操作

列重命名是数据预处理中的常见需求:

 # Pandas重命名
 df.rename(columns={'a': 'alpha'})

 # Polars重命名
 df.rename({'a': 'alpha'})

两个框架的重命名语法相似,但Polars的实现在处理大数据集时更加高效。

9、分组聚合操作

分组操作允许我们对数据进行细粒度的分析:

 # Pandas分组求和
 df.groupby('a')['b'].sum()

 # Polars分组求和
 df.group_by('a').agg(pl.col('b').sum())

在实际应用中,常需要同时计算多个统计指标:

 # Pandas多指标聚合
 df.groupby('a').agg({'b': ['sum', 'mean'], 'c': 'max'})

 # Polars多指标聚合
 df.group_by('a').agg([
     pl.col('b').sum().alias('b_sum'),
     pl.col('b').mean().alias('b_mean'),
     pl.col('c').max().alias('c_max')
 ])

Polars的分组聚合语法更加显式,虽然代码量稍多,但提供了更好的类型安全性和性能优化空间。每个聚合操作都可以被单独优化,并且支持并行计算。

分组排名计算

在数据分析中,计算组内排名是一个常见需求:

 # Pandas分组排名
 df['rank'] =df.groupby('a')['b'].rank(method='dense')

 # Polars分组排名
 df=df.with_columns(
     pl.col('b').rank('dense').over('a').alias('rank')
 )

Polars的语法采用了SQL风格的

over

子句,这种设计更接近标准的数据处理范式,并且在处理大规模数据集时更有效率。

分组转换操作

对分组数据进行转换是数据处理中的高级操作:

 # Pandas分组转换
 df['sum_squared'] =df.groupby('a')['b'].transform(lambdax: x.sum() *2)

 # Polars分组转换
 df=df.with_columns(
     (pl.col('b').sum().over('a') *2).alias('sum_squared')
 )

Polars的实现避免了使用lambda函数,提供了更直接的列操作方式,这不仅提高了代码的可读性,还实现了更好的性能优化。

10、时间窗口计算

滑动窗口计算在时间序列分析中极为重要:

 # Pandas滑动平均
 df['rolling_avg'] =df['b'].rolling(window=3).mean()

 # Polars滑动平均
 df=df.with_columns(
     pl.col('b').rolling_mean(window_size=3).alias('rolling_avg')
 )

Polars的窗口操作实现了更高效的内存管理,特别适合处理大规模时间序列数据。

11、累计统计计算

累计统计在数据分析中用于追踪数据的演变趋势:

 # Pandas累计统计
 df['cum_sum'] =df['b'].cumsum()
 df['cum_prod'] =df['b'].cumprod()
 df['cum_mean'] =df['b'].expanding().mean()

 # Polars累计统计
 df.with_columns([
     pl.col('b').cum_sum().alias('cum_sum'),
     pl.col('b').cum_prod().alias('cum_prod'),
     pl.col('b').cumulative_eval(pl.element().mean()).alias('cum_mean')
 ])

Polars提供了更统一的累计计算接口,并且支持更复杂的自定义累计操作。

12、条件聚合操作

条件聚合允许我们基于特定条件计算统计量:

 # Pandas条件聚合
 df['sum_if'] =df[df['a'] >2]['b'].sum()

 # Polars条件聚合
 sum_if=df.filter(pl.col('a') >2).select(pl.col('b').sum()).item()

Polars的实现更加直观,并且通过优化的查询计划提供更好的性能。

13、 排序操作

数据排序是数据分析中的基础操作:

 # Pandas排序
 df.sort_values(by='a')

 # Polars排序
 df.sort('a')

Polars提供了更简洁的排序语法,同时在底层实现了更高效的排序算法。

14、空值处理

处理缺失数据是数据清洗的重要环节:

 # Pandas空值处理
 df.fillna(0)  # 填充空值
 df.dropna()   # 删除包含空值的行

 # Polars空值处理
 df.fill_null(0)  # 填充空值
 df.drop_nulls()  # 删除包含空值的行

Polars对空值的处理采用了更现代的命名方式,并且在实现上考虑了内存效率和计算性能。

15、DataFrame连接操作

数据集的连接操作是数据整合的核心技术:

 # Pandas数据连接
 df_merged=pd.merge(df1, df2, on='key', how='inner')

 # Polars数据连接
 df_merged=df1.join(df2, on='key', how='inner')

Polars的连接操作采用了更接近SQL的语法,并且在实现上使用了哈希连接和排序合并连接等优化技术,显著提升了大数据集的连接性能。支持的连接类型包括:

  • inner:内连接,仅保留匹配的记录
  • left:左连接,保留左表所有记录
  • outer:外连接,保留所有记录
  • cross:交叉连接,生成笛卡尔积

16、数据集合并

数据集合并用于处理来自不同源的数据:

 # Pandas数据合并
 df_concat_vert=pd.concat([df1, df2], axis=0)  # 垂直合并
 df_concat_horiz=pd.concat([df1, df2], axis=1)  # 水平合并

 # Polars数据合并
 df_concat_vert=pl.concat([df1, df2])  # 垂直合并
 df_concat_horiz=pl.concat([df1, df2], how='horizontal')  # 水平合并

Polars的合并操作在处理大规模数据集时表现出更好的内存效率,并且提供了更直观的参数设置。垂直合并特别适用于处理分片数据或时间序列数据的合并。

17、数据透视表操作

数据透视表是数据分析中的重要工具,用于多维度数据汇总:

 # Pandas数据透视表
 df.pivot_table(index='a', columns='b', values='c', aggfunc='sum')

 # Polars数据透视表
 df.pivot(values='c', index='a', columns='b', aggregate_fn='sum')

更复杂的场景下,可能需要同时计算多个聚合指标:

 # Pandas多重聚合透视表
 df.pivot_table(index='a', columns='b', values='c', aggfunc=['sum', 'mean'])

 # Polars多重聚合透视表
 df.group_by(['a', 'b']).agg([
     pl.col('c').sum().alias('c_sum'),
     pl.col('c').mean().alias('c_mean')
 ]).pivot(values=['c_sum', 'c_mean'], index='a', columns='b')

Polars的实现虽然写法较长,但提供了更灵活的聚合函数定义能力,并且在处理大规模数据集时性能更优。

18、列表类型数据展开

处理嵌套数据结构是数据预处理中的常见需求:

 # Pandas列表展开
 df=pd.DataFrame({'a': [1, 2], 'b': [[1, 2], [3, 4]]})
 df=df.explode('b')

 # Polars列表展开
 df=pl.DataFrame({'a': [1, 2], 'b': [[1, 2], [3, 4]]})
 df=df.explode('b')

两个框架在这方面的语法非常相似,但Polars的实现在内存使用上更加高效,特别是在处理大型嵌套数据结构时。

19、数据导出

数据处理完成后的导出操作:

 # Pandas导出CSV
 df.to_csv('output.csv', index=False)

 # Polars导出CSV
 df.write_csv('output.csv')

Polars提供了多线程写入能力,可以显著提升大数据集的导出速度。

20、惰性求值

Polars的一个重要特性是支持惰性求值:

  • 使用lazy()方法将DataFrame转换为LazyFrame
  • 可以构建复杂的查询计划而不立即执行
  • 通过collect()触发实际计算
  • 能够自动优化查询计划,提升性能

示例:

 # 惰性操作链
 result= (df.lazy()
           .filter(pl.col('value') >0)
           .group_by('category')
           .agg(pl.col('value').sum())
           .collect())

总结

Polars作为现代化的数据处理框架,通过先进的工程实践和算法优化,为数据科学工作者提供了高效的数据处理工具。在从Pandas迁移时,理解这些核心概念和最佳实践将有助于充分发挥Polars的性能优势。

https://avoid.overfit.cn/post/c9ffc87af55f4cd494d7954c11ce384c

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
6月前
|
存储 数据挖掘 数据处理
【Python DataFrame 专栏】优化 DataFrame 性能:提升数据处理效率的秘诀
【5月更文挑战第19天】优化 Python DataFrame 性能的关键点包括:选择合适的数据类型以节省内存,避免重复计算,利用向量化操作,考虑使用 `iterrows` 或 `itertuples` 迭代,优化索引以及借助 `Cython` 或 `Numba` 加速代码执行。通过这些策略,能提升数据处理效率,应对大规模数据挑战。
254 2
【Python DataFrame 专栏】优化 DataFrame 性能:提升数据处理效率的秘诀
|
测试技术 数据处理 索引
软件测试|数据处理神器pandas教程(十二)
软件测试|数据处理神器pandas教程(十二)
|
数据采集 测试技术 数据处理
软件测试|数据处理神器pandas教程(十五)
软件测试|数据处理神器pandas教程(十五)
|
数据挖掘 测试技术 数据处理
软件测试|数据处理神器pandas教程(十一)
软件测试|数据处理神器pandas教程(十一)
软件测试|数据处理神器pandas教程(十一)
|
数据挖掘 Java 索引
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十七)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
283 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十七)
|
数据挖掘 Python
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas高级—训练场(1)(十一)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
221 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas高级—训练场(1)(十一)
|
数据挖掘 索引 Python
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十四)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
148 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十四)
|
SQL 数据挖掘 数据库
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十九)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
241 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十九)
|
数据挖掘 索引 Python
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十五)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
215 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十五)
|
数据挖掘 Python
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十六)
你好,感谢你能点进来本篇博客,请不要着急退出,相信我,如果你有一定的 Python 基础,想要学习 Python数据分析的三大库:numpy,pandas,matplotlib;这篇文章不会让你失望,本篇博客是 【AIoT阶段一(下)】 的内容:Python数据分析,
239 0
数据分析三剑客【AIoT阶段一(下)】(十万字博文 保姆级讲解)—Pandas—pandas进阶(十六)
下一篇
无影云桌面