Pandas数据清理

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 本分步教程适用于初学者,指导他们使用强大的 Pandas 库完成数据清理和预处理过程
推荐:使用 NSDT场景编辑器 快速搭建3D应用场景

介绍

如果您喜欢数据科学,那么数据清理对您来说可能听起来像是一个熟悉的术语。如果没有,让我向你解释一下。我们的数据通常来自多个资源,并不干净。它可能包含缺失值、重复项、错误或不需要的格式等。对这些混乱的数据运行实验会导致不正确的结果。因此,有必要在将数据馈送到模型之前准备数据。通过识别和解决潜在的错误、不准确和不一致来准备数据称为数据清理

在本教程中,我将引导您完成使用 Pandas 清理数据的过程。

数据

我将使用著名的鸢尾花数据集。鸢尾花数据集包含三种鸢尾花的四个特征的测量值:萼片长度、萼片宽度、花瓣长度和花瓣宽度。我们将使用以下库:

  • pandas用于数据操作和分析的强大库
  • Scikit-learn: 提供用于数据预处理和机器学习的工具

数据清理步骤

1. 加载数据集

使用 Pandas 的 read_csv() 函数加载鸢尾花数据集:

column_names = ['id', 'sepal_length', 'sepal_width', 'petal_length', 'petal_width', 'species']
iris_data = pd.read_csv('data/Iris.csv', names= column_names, header=0)
iris_data.head()

输出:

编号 sepal_length sepal_width petal_length petal_width 物种
1 5.1 3.5 1.4 0.2 鸢尾花
2 4.9 3.0 1.4 0.2 鸢尾花
3 4.7 3.2 1.3 0.2 鸢尾花
4 4.6 3.1 1.5 0.2 鸢尾花
5 5.0 3.6 1.4 0.2 鸢尾花

header=0 参数指示 CSV 文件的第一行包含列名(标题)。

2. 浏览数据集

为了深入了解我们的数据集,我们将使用 pandas 中的内置函数打印一些基本信息

print(iris_data.info())
print(iris_data.describe())

输出:

RangeIndex: 150 entries, 0 to 149
Data columns (total 6 columns):
 #   Column        Non-Null Count  Dtype  
---  ------        --------------  -----  
 0   id            150 non-null    int64  
 1   sepal_length  150 non-null    float64
 2   sepal_width   150 non-null    float64
 3   petal_length  150 non-null    float64
 4   petal_width   150 non-null    float64
 5   species       150 non-null    object 
dtypes: float64(4), int64(1), object(1)
memory usage: 7.2+ KB
None

iris_data.describe() 的输出

info() 函数可用于了解数据帧的整体结构、每列中非空值的数量以及内存使用情况。而汇总统计数据则提供了数据集中数值要素的概述。

3. 检查类分布

这是了解类如何在分类列中分布的重要步骤,这是分类的重要任务。您可以使用 pandas 中的 value_counts() 函数执行此步骤。

print(iris_data['species'].value_counts())

输出:

Iris-setosa        50
Iris-versicolor    50
Iris-virginica     50
Name: species, dtype: int64

我们的结果表明,数据集是平衡的,每个物种的表示数量相等。这为所有 3 个班级的公平评估和比较奠定了基础。

4. 删除缺失值

由于从 info() 方法中可以明显看出我们有 5 列没有缺失值,因此我们将跳过此步骤。但是,如果遇到任何缺失值,请使用以下命令来处理它们:

iris_data.dropna(inplace=True)

5. 删除重复项

重复项可能会扭曲我们的分析,因此我们会将它们从数据集中删除。我们将首先使用下面提到的命令检查它们的存在:

duplicate_rows = iris_data.duplicated()
print("Number of duplicate rows:", duplicate_rows.sum())

输出:

Number of duplicate rows: 0

此数据集没有任何重复项。尽管如此,可以通过 drop_duplicates() 函数删除重复项。

iris_data.drop_duplicates(inplace=True)

6. 独热编码

对于分类分析,我们将对物种列执行独热编码。执行此步骤是由于机器学习算法倾向于更好地处理数值数据。独热编码过程将分类变量转换为二进制(0 或 1)格式。

encoded_species = pd.get_dummies(iris_data['species'], prefix='species', drop_first=False).astype('int')
iris_data = pd.concat([iris_data, encoded_species], axis=1)
iris_data.drop(columns=['species'], inplace=True)

图片来源:作者

7. 浮点值列的规范化

归一化是将数值特征缩放为平均值为 0 且标准差为 1 的过程。执行此过程是为了确保要素对分析的贡献相同。我们将规范化浮点值列以实现一致的缩放。

from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
cols_to_normalize = ['sepal_length', 'sepal_width', 'petal_length', 'petal_width']
scaled_data = scaler.fit(iris_data[cols_to_normalize])
iris_data[cols_to_normalize] = scaler.transform(iris_data[cols_to_normalize])

规范化

后 iris_data.describe() 的输出

8. 保存已清理的数据集

将清理后的数据集保存到新的 CSV 文件。

iris_data.to_csv('cleaned_iris.csv', index=False)


总结

祝贺!您已成功使用 pandas 清理了第一个数据集。在处理复杂数据集时,您可能会遇到其他挑战。但是,此处提到的基本技术将帮助您入门并准备数据以进行分析。


原文链接:https://www.mvrlink.com/data-cleaning-with-pandas/


目录
打赏
0
0
0
0
6
分享
相关文章
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
138 100
Pandas高级数据处理:数据流式计算
Pandas数据应用:客户流失预测
本文介绍如何使用Pandas进行客户流失预测,涵盖数据加载、预处理、特征工程和模型训练。通过解决常见问题(如文件路径错误、编码问题、列名不一致等),确保数据分析顺利进行。特征工程中创建新特征并转换数据类型,为模型训练做准备。最后,划分训练集与测试集,选择合适的机器学习算法构建模型,并讨论数据不平衡等问题的解决方案。掌握这些技巧有助于有效应对实际工作中的复杂情况。
144 95
Pandas数据应用:库存管理
本文介绍Pandas在库存管理中的应用,涵盖数据读取、清洗、查询及常见报错的解决方法。通过具体代码示例,讲解如何处理多样数据来源、格式不一致、缺失值和重复数据等问题,并解决KeyError、ValueError等常见错误,帮助提高库存管理效率和准确性。
107 72
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
59 31
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
35 17
Pandas高级数据处理:数据报告生成实战指南
数据报告生成面临数据质量、计算性能、呈现形式和自动化等核心挑战。常见问题包括缺失值导致统计失真、内存溢出及可视化困难。解决方案涵盖数据清洗、分块处理、安全绘图模板等。通过模块化设计、异常处理机制和性能优化策略,如使用`category`类型、并行计算等,可大幅提升效率。最佳实践建议建立数据质量检查清单、版本控制和自动化测试框架,确保系统具备自适应能力,提升报告生成效率300%以上。
43 12
Pandas数据应用:市场篮子分析
市场篮子分析是一种用于发现商品间关联关系的数据挖掘技术,广泛应用于零售业。Pandas作为强大的数据分析库,在此领域具有显著优势。本文介绍了市场篮子分析的基础概念,如事务、项集、支持度、置信度和提升度,并探讨了数据预处理、算法选择、参数设置及结果解释中的常见问题与解决方案,帮助用户更好地进行市场篮子分析,为企业决策提供支持。
70 29
Pandas数据应用:供应链优化
在当今全球化的商业环境中,供应链管理日益复杂。Pandas作为Python的强大数据分析库,能有效处理库存、物流和生产计划中的大量数据。本文介绍如何用Pandas优化供应链,涵盖数据导入、清洗、类型转换、分析与可视化,并探讨常见问题及解决方案,帮助读者在供应链项目中更加得心应手。
50 21
Pandas数据应用:广告效果评估
在数字化营销中,广告效果评估至关重要。Pandas作为Python的强大数据分析库,在处理广告数据时表现出色。本文介绍如何使用Pandas进行广告效果评估,涵盖数据读取、预览、缺失值处理、数据类型转换及常见报错解决方法,并通过代码案例详细解释。掌握这些技能,可为深入分析广告效果打下坚实基础。
43 17
Pandas数据应用:销售预测
本文介绍如何使用Pandas进行销售预测。首先,通过获取、清洗和可视化历史销售数据,确保数据质量并理解其特征。接着,进行特征工程,构建线性回归等模型进行预测,并评估模型性能。最后,针对常见问题如数据类型不匹配、时间格式错误、内存不足和模型过拟合提供解决方案。掌握这些步骤,可有效提升销售预测的准确性,助力企业优化库存管理和提高客户满意度。
56 17