如何使用 Pandas 库进行数据清洗和预处理?

简介: 数据清洗和预处理是数据分析中至关重要的步骤,Pandas库提供了丰富的函数和方法来完成这些任务

数据清洗和预处理是数据分析中至关重要的步骤,Pandas库提供了丰富的函数和方法来完成这些任务。以下是使用Pandas进行数据清洗和预处理的常见操作:

处理缺失值

  • 检测缺失值:使用isnull()notnull()函数可以检测DataFrame中的缺失值,返回一个布尔型的DataFrame,其中缺失值对应的位置为True,非缺失值对应的位置为False。例如:
import pandas as pd
import numpy as np

data = {
   'col1': [1, np.nan, 3], 'col2': [4, 5, np.nan], 'col3': [7, 8, 9]}
df = pd.DataFrame(data)
print(df.isnull())
  • 删除缺失值:使用dropna()函数可以删除包含缺失值的行或列。默认情况下,dropna()会删除包含任何缺失值的行,可以通过设置axis参数为1来删除包含缺失值的列,也可以通过how参数指定删除的条件,如all表示当一行或一列的所有值都为缺失值时才删除。例如:
# 删除包含缺失值的行
df.dropna()

# 删除包含缺失值的列
df.dropna(axis=1)

# 当一行的所有值都为缺失值时才删除该行
df.dropna(how='all')
  • 填充缺失值:使用fillna()函数可以用指定的值填充缺失值。可以填充一个固定的值,也可以使用一些统计量如均值、中位数等来填充。例如:
# 用0填充缺失值
df.fillna(0)

# 用均值填充缺失值
df['col1'].fillna(df['col1'].mean())

处理重复值

  • 检测重复值:使用duplicated()函数可以检测DataFrame中的重复行,返回一个布尔型的Series,其中重复行对应的位置为True,非重复行对应的位置为False。例如:
data = {
   'col1': [1, 2, 2, 3], 'col2': [4, 5, 5, 6]}
df = pd.DataFrame(data)
print(df.duplicated())
  • 删除重复值:使用drop_duplicates()函数可以删除重复行,默认保留第一次出现的行,可以通过设置keep参数来指定保留的重复行,如last表示保留最后一次出现的行,False表示删除所有重复行。例如:
# 删除重复行,保留第一次出现的行
df.drop_duplicates()

# 删除重复行,保留最后一次出现的行
df.drop_duplicates(keep='last')

# 删除所有重复行
df.drop_duplicates(keep=False)

数据类型转换

  • 查看数据类型:使用dtypes属性可以查看DataFrame中每列的数据类型。例如:
print(df.dtypes)
  • 转换数据类型:使用astype()函数可以将某一列或整个DataFrame的数据类型转换为指定的类型。例如:
    ```python

    将col1列的数据类型转换为float

    df['col1'] = df['col1'].astype(float)

将整个DataFrame的数据类型转换为str

df.astype(str)


### 数据标准化和归一化
- **标准化**:标准化是将数据转换为均值为0,标准差为1的分布。可以使用以下公式进行标准化:$x_{new} = \frac{x - \mu}{\sigma}$,其中$x$是原始数据,$\mu$是均值,$\sigma$是标准差。Pandas中可以使用`(x - x.mean()) / x.std()`来实现标准化。例如:

```python
# 对col1列进行标准化
df['col1_standardized'] = (df['col1'] - df['col1'].mean()) / df['col1'].std()
  • 归一化:归一化是将数据映射到[0, 1]区间。可以使用以下公式进行归一化:$x_{new} = \frac{x - min(x)}{max(x) - min(x)}$。Pandas中可以使用(x - x.min()) / (x.max() - x.min())来实现归一化。例如:
    # 对col1列进行归一化
    df['col1_normalized'] = (df['col1'] - df['col1'].min()) / (df['col1'].max() - df['col1'].min())
    

处理异常值

  • 检测异常值:可以通过设定阈值或使用统计方法来检测异常值。例如,对于正态分布的数据,可以使用均值和标准差来确定异常值的范围,通常认为数据点在均值加减3倍标准差之外的为异常值。
# 计算col1列的均值和标准差
mean_value = df['col1'].mean()
std_value = df['col1'].std()

# 检测异常值
outliers = df[(df['col1'] > mean_value + 3 * std_value) | (df['col1'] < mean_value - 3 * std_value)]
  • 处理异常值:处理异常值的方法有多种,可以删除异常值,也可以将异常值替换为合理的值。例如:
# 删除异常值
df = df[(df['col1'] <= mean_value + 3 * std_value) & (df['col1'] >= mean_value - 3 * std_value)]

# 将异常值替换为均值
df.loc[(df['col1'] > mean_value + 3 * std_value) | (df['col1'] < mean_value - 3 * std_value), 'col1'] = mean_value

数据排序

  • 按列排序:使用sort_values()函数可以按照指定的列对DataFrame进行排序。例如:
# 按照col1列升序排序
df.sort_values('col1')

# 按照col1列降序排序
df.sort_values('col1', ascending=False)
  • 按索引排序:使用sort_index()函数可以按照索引对DataFrame进行排序。例如:
# 按照行索引升序排序
df.sort_index()

# 按照列索引降序排序
df.sort_index(axis=1, ascending=False)

数据分组和聚合

  • 分组:使用groupby()函数可以按照指定的列对DataFrame进行分组,返回一个GroupBy对象。例如:
# 按照col1列分组
grouped = df.groupby('col1')
  • 聚合:在分组的基础上,可以使用agg()函数对每个组进行聚合操作,如求和、平均值、计数等。例如:
# 计算每个组的平均值
grouped.mean()

# 对每个组的col2列求和
grouped['col2'].sum()

通过以上操作,可以有效地对数据进行清洗和预处理,为后续的数据分析和建模提供高质量的数据。在实际应用中,可能需要根据具体的数据特点和分析需求,灵活运用这些方法来达到最佳的数据处理效果。

目录
相关文章
|
8天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
12天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
3天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
|
9天前
|
人工智能 运维 双11
2024阿里云双十一云资源购买指南(纯客观,无广)
2024年双十一,阿里云推出多项重磅优惠,特别针对新迁入云的企业和初创公司提供丰厚补贴。其中,36元一年的轻量应用服务器、1.95元/小时的16核60GB A10卡以及1元购域名等产品尤为值得关注。这些产品不仅价格亲民,还提供了丰富的功能和服务,非常适合个人开发者、学生及中小企业快速上手和部署应用。
|
19天前
|
自然语言处理 数据可视化 前端开发
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
合合信息的智能文档处理“百宝箱”涵盖文档解析、向量化模型、测评工具等,解决了复杂文档解析、大模型问答幻觉、文档解析效果评估、知识库搭建、多语言文档翻译等问题。通过可视化解析工具 TextIn ParseX、向量化模型 acge-embedding 和文档解析测评工具 markdown_tester,百宝箱提升了文档处理的效率和精确度,适用于多种文档格式和语言环境,助力企业实现高效的信息管理和业务支持。
3940 3
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
|
8天前
|
算法 安全 网络安全
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
2024阿里云11.11金秋云创季活动火热进行中,活动月期间(2024年11月01日至11月30日)通过折扣、叠加优惠券等多种方式,阿里云WoSign SSL证书实现优惠价格新低,DV SSL证书220元/年起,助力中小企业轻松实现HTTPS加密,保障数据传输安全。
522 3
阿里云SSL证书双11精选,WoSign SSL国产证书优惠
|
15天前
|
安全 数据建模 网络安全
2024阿里云双11,WoSign SSL证书优惠券使用攻略
2024阿里云“11.11金秋云创季”活动主会场,阿里云用户通过完成个人或企业实名认证,可以领取不同额度的满减优惠券,叠加折扣优惠。用户购买WoSign SSL证书,如何叠加才能更加优惠呢?
992 3
|
7天前
|
数据采集 人工智能 API
Qwen2.5-Coder深夜开源炸场,Prompt编程的时代来了!
通义千问团队开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列,致力于持续推动 Open Code LLMs 的发展。
|
12天前
|
机器学习/深度学习 存储 人工智能
白话文讲解大模型| Attention is all you need
本文档旨在详细阐述当前主流的大模型技术架构如Transformer架构。我们将从技术概述、架构介绍到具体模型实现等多个角度进行讲解。通过本文档,我们期望为读者提供一个全面的理解,帮助大家掌握大模型的工作原理,增强与客户沟通的技术基础。本文档适合对大模型感兴趣的人员阅读。
445 18
白话文讲解大模型| Attention is all you need
|
13天前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
663 10
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎