Pandas与SQL的数据操作语句对照

简介: Pandas与SQL的数据操作语句对照

640.png

介绍

SQL的神奇之处在于它容易学习,而它容易学习的原因是代码语法非常直观。

另一方面,Pandas不是那么直观,特别是如果像我一样首先从SQL开始。

就我个人而言,我发现真正有用的是思考如何在SQL中操作数据,然后在Pandas中复制它。所以如果你想更加精通Pandas,我强烈建议你也采用这种方法。

因此,本文可以作为一个备查表、字典、指南,无论你想怎么称呼它,这样你在使用Pandas时就可以参考它。

说了这么多,让我们开始吧!

内容

选择行

结合表

条件过滤

根据值进行排序

聚合函数

选择行

SELECT * FROM

如果你想要选择整个表,只需调用表的名称:

#SQLSELECT*FROMtable_df#Pandastable_dfSELECTa, bFROM

如果你想从一个表中选择特定的列,列出你想要的列在双括号中:

#SQLSELECTcolumn_a, column_bFROMtable_df#Pandastable_df[['column_a', 'column_b']]
SELECTDISTINCT

简单地使用.drop_duplicates()获取不同的值:

#SQLSELECTDISTINCTcolumn_aFROMtable_df#Pandastable_df['column_a'].drop_duplicates()
SELECTaasb

如果你想重命名一个列,使用.rename():

#SQLSELECTcolumn_aasApple, column_basBananaFROMtable_df#Pandastable_df[['column_a', 'column_b']].rename(columns={'column_a':
'Apple', 'column_b':'Banana'})
SELECTCASEWHEN

对于等价于SELECT CASE WHEN的情况,您可以使用np.select(),其中首先指定您的选择和每个选择的值。

#SQLSELECTCASEWHENcolumn_a>30THEN"Large"WHENcolumn_a<=30THEN"Small"ENDASSizeFROMtable_df#Pandasconditions= [table_df['column_a']>30, table_df['column_b']<=30]
choices= ['Large', 'Small']
table_df['Size'] =np.select(conditions, choices)

组合表

INNER/LEFT/RIGHT JOIN

只需使用.merge()连接表,就可以使用“how”参数指定它是左连接、右连接、内连接还是外连接。

#SQLSELECT*FROMtable_1t1LEFTJOINtable_2t1ont1.lkey=t2.rkey#Pandastable_1.merge(table_2, left_on='lkey', right_on='rkey', how='left')
UNIONALL使用pd.concat ():
#SQLSELECT*FROMtable_1UNIONALLSELECT*FROMtable_2#Pandasfinal_table=pd.concat([table_1, table_2])

条件过滤

SELECT WHERE

当你用SQL中WHERE子句的方式过滤数据流时,你只需要在方括号中定义标准:

#SQLSELECT*FROMtable_dfWHEREcolumn_a=1#Pandastable_df[table_df['column_a'] ==1]
SELECTcolumn_aWHEREcolumn_b

当你想从一个表中选择一个特定的列并用另一个列过滤它时,遵循以下格式:

#SQLSELECTcolumn_aFROMtable_dfWHEREcolumn_b=1#Pandastable_df[table_df['column_b']==1]['column_a']
SELECTWHEREAND

如果您希望通过多个条件进行筛选,只需将每个条件用圆括号括起来,并使用' & '分隔每个条件。

#SQLSELECT*FROMtable_dfWHEREcolumn_a=1ANDcolumn_b=2#Pandastable_df[(table_df['column_a']==1) & (table_df['column_b']==2)]
SELECTWHERELIKE

相当于SQL中的LIKE的是.str.contains()。如果您想应用大小写不敏感,只需在参数中添加

case=False。#SQLSELECT*FROMtable_dfWHEREcolumn_aLIKE'%ball%'#Pandastable_df[table_df['column_a'].str.contains('ball')]
SELECTWHEREcolumnIN()

SQL中的IN()等价于.isin()

#SQLSELECT*FROMtable_dfWHEREcolumn_aIN('Canada', 'USA')
#Pandastable_df[table_df['column_a'].isin(['Canada', 'USA'])]

根据值进行排序

ORDER BY 单列

SQL中的ORDER BY等价于.sort_values()。使用“ascending”参数指定是按升序排序还是按降序排序——默认情况下像SQL一样是升序排序。

#SQLSELECT*FROMtable_dfORDERBYcolumn_aDESC#Pandastable_df.sort_values('column_a', ascending=False)

ORDER BY 多列

如果您希望按多个列排序,请列出方括号中的列,并在方括号中的' ascending '参数中指定排序的方向。

#SQLSELECT*FROMtable_dfORDERBYcolumn_aDESC, column_bASC#Pandastable_df.sort_values(['column_a', 'column_b'], ascending=[False, True])

聚合函数

COUNT DISTINCT

请注意聚合函数的一种常见模式。

要使用DISTINCT计数,只需使用.groupby()和.nunique()。

#SQLSELECTcolumn_a, COUNTDISTINCT(ID) 
FROMtable_dfGROUPBYcolumn_a#Pandastable_df.groupby('column_a')['ID'].nunique()
sum#SQLSELECTcolumn_a, SUM(revenue) 
FROMtable_dfGROUPBYcolumn_a#Pandastable_df.groupby(['column_a', 'revenue']).sum()
avg#SQLSELECTcolumn_a, AVG(revenue) 
FROMtable_dfGROUPBYcolumn_a#Pandastable_df.groupby('column_a')['revenue'].mean()

总结

希望在使用Pandas处理数据时,本文可以作为有用的指南。不要觉得你必须记住所有这些!当我和Pandas一起工作时,我经常会回想到这一点。

如果能够通过足够的练习,你将对Pandas感到更舒适,并充分理解其潜在机制,而不需要依赖于像这样的备记单。

一如既往,祝你编码快乐!:)


目录
相关文章
|
2月前
|
数据采集 安全 数据挖掘
Pandas数据合并:10种高效连接技巧与常见问题
在数据分析中,数据合并是常见且关键的步骤。本文针对合并来自多个来源的数据集时可能遇到的问题,如列丢失、重复记录等,提供系统解决方案。基于对超1000个复杂数据集的分析经验,总结了10种关键技术,涵盖Pandas库中`merge`和`join`函数的使用方法。内容包括基本合并、左连接、右连接、外连接、基于索引连接、多键合并、数据拼接、交叉连接、后缀管理和合并验证等场景。通过实际案例与技术原理解析,帮助用户高效准确地完成数据整合任务,提升数据分析效率。
185 13
Pandas数据合并:10种高效连接技巧与常见问题
|
4月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
122 4
|
5月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
368 100
Pandas高级数据处理:数据流式计算
|
2月前
|
SQL 数据挖掘 关系型数据库
【SQL 周周练】一千条数据需要做一天,怎么用 SQL 处理电表数据(如何动态构造自然月)
题目来自于某位发帖人在某 Excel 论坛的求助,他需要将电表缴费数据按照缴费区间拆开后再按月份汇总。当时用手工处理数据,自称一千条数据就需要处理一天。我将这个问题转化为 SQL 题目。
115 12
|
2月前
|
SQL 数据采集 资源调度
【SQL 周周练】爬取短视频发现数据缺失,如何用 SQL 填充
爬虫爬取抖音和快手的短视频数据时,如果遇到数据缺失的情况,如何使用 SQL 语句完成数据的补全。
83 5
|
6月前
|
机器学习/深度学习 存储 算法
Pandas数据应用:客户流失预测
本文介绍如何使用Pandas进行客户流失预测,涵盖数据加载、预处理、特征工程和模型训练。通过解决常见问题(如文件路径错误、编码问题、列名不一致等),确保数据分析顺利进行。特征工程中创建新特征并转换数据类型,为模型训练做准备。最后,划分训练集与测试集,选择合适的机器学习算法构建模型,并讨论数据不平衡等问题的解决方案。掌握这些技巧有助于有效应对实际工作中的复杂情况。
199 95
|
6月前
|
数据采集 存储 供应链
Pandas数据应用:库存管理
本文介绍Pandas在库存管理中的应用,涵盖数据读取、清洗、查询及常见报错的解决方法。通过具体代码示例,讲解如何处理多样数据来源、格式不一致、缺失值和重复数据等问题,并解决KeyError、ValueError等常见错误,帮助提高库存管理效率和准确性。
197 72
|
5月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
109 31
|
5月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
81 12
|
5月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
109 17