pandas&numpy 数据处理~~两万字超全(下)

简介: pandas&numpy 数据处理~~两万字超全(下)

7. pandas JSON


  1. JSON(JavaScript Object Notation,JavaScript 对象表示法),是存储和交换文本信息的语法,类似 XML。
    JSON 比 XML 更小、更快,更易解析。

实例1——以sites.json为例

#  保存文件
import pandas as pd
data=[
   {
   "id": "A001",
   "name": "菜鸟教程",
   "url": "www.runoob.com",
   "likes": 61
   },
   {
   "id": "A002",
   "name": "Google",
   "url": "www.google.com",
   "likes": 124
   },
   {
   "id": "A003",
   "name": "淘宝",
   "url": "www.taobao.com",
   "likes": 45
   }
]
df=pd.DataFrame(data)
df.to_json("sites.json")


# 读取文件,输出
df=pd.read_json("sites.json")
print(df.to_string())
# 结果如下:

41648210b5634fc0b639b7bf21c7a220.png


实例2——将 Python 字典转化为 DataFrame 数据

JSON 对象与 Python 字典具有相同的格式,所以我们可以直接将 Python 字典转化为 DataFrame 数据:

import pandas as pd 
#将字典格式的JSON
s={
    "col1":{"row1":1,"row2":2,"row3":3},
    "col2":{"row1":"x","row2":"y","row":"z"}
}
#读取JSON转为DataFrame
df=pd.DataFrame(s)
print(df)
#输出结果如下图:

f7b7efd4dac1474e820176f0f8228873.png

实例3 ——从 URL 中读取 JSON 数据:

import pandas as pd
URL = 'https://static.runoob.com/download/sites.json'
df = pd.read_json(URL)
print(df)
#结果如下图:


e713cc6109b5446aa84b4efe3257f20d.png


8. pandas - 数据清洗

数据清洗是对一些数据集存在数据缺失、数据格式错误、错误数据或重复数据的情况进行处理,如果要对使数据分析更加准确,就需要对这些没有用的数据进行处理。

cbd1d3f4ebaf4cbc94db5726270aefbb.png

8.1 pandas 清洗空值

  1. 如果我们要删除包含空字段的行,可以使用 dropna() 方法,语法格式如下:
    DataFrame.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)

参数说明:

axis:默认为 0,表示逢空值剔除整行,如果设置参数 axis=1 表示逢空值去掉整列。

how:默认为 ‘any’ 如果一行(或一列)里任何一个数据有出现 NA 就去掉整行,如果设置 how=‘all’ 一行(或列)都是 NA 才去掉这整行。

thresh:设置需要多少非空值的数据才可以保留下来的。

subset:设置想要检查的列。如果是多个列,可以使用列名的 list 作为参数。

inplace:如果设置 True,将计算得到的值直接覆盖之前的值并返回 None,修改的是源数据。

  • 实例1——通过 isnull() 判断各个单元格是否为空
import pandas as pd
df = pd.read_csv('property-data.csv')
print (df['NUM_BEDROOMS'])
print (df['NUM_BEDROOMS'].isnull())
#结果如下图:

f0cfe0e48372423aa72993604468c3bb.png

以上例子中我们看到 Pandas 把 n/a 和 NA 当作空数据,na 不是空数据,不符合我们要求,我们可以指定空数据类型:

import pandas as pd
missing_values = ["n/a", "na", "--"]
df = pd.read_csv('property-data.csv', na_values = missing_values)
print (df['NUM_BEDROOMS'])
print (df['NUM_BEDROOMS'].isnull())
#结果如下:


b3e74e5e87a344d48ba2af731b146238.png

  • 实例2——删除包含空数据的行
import pandas as pd 
df = pd.read_csv("property-data.csv")
new_df = df.dropna()
print(new_df.to_string())
#结果如下:


2291815a562b49cb8086e4a802e91028.png

注意: 默认情况下,dropna() 方法返回一个新的 DataFrame,不会修改源数据。

如果要修改源数据 DataFrame, 可以使用inplace = True 参数:

import pandas as pd
df = pd.read_csv('property-data.csv')
df.dropna(inplace = True)
print(df.to_string())
#结果如下:


3dd5dc6176d84319a1566d5a3ca419a7.png

实例3——移除指定列有空值的行

#   移除 ST_NUM 列中字段值为空的行:
import pandas as pd 
df = pd.read_csv("property-data.csv")
df.dropna(subset=['ST_NUM'],inplace=True)
print(df.to_string())
#结果如下:


4fb6a4dd2c0d4285aeecc7bf223e6e68.png

  • 实例4——fillna() 方法来替换一些空字段
# 使用 12345 替换空字段:
import pandas as pd
df = pd.read_csv("property-data.csv")
df.fillna('xiaoba',inplace=True)
print(df.to_string())
# 结果如下:


402608f4967c415481706b26f1b915ce.png

  • 实例5——指定替换某一个列的空数据
# 使用 12345 替换 PID 为空数据
import pandas as pd 
df = pd.read_csv("property-data.csv")
df['PID'].fillna(12345,inplace=True)
print(df.to_string())
#结果如下:

565f735b371f4ba080ab24d9ac886626.png

替换空单元格的常用方法是计算列的均值、中位数值或众数。

Pandas使用 mean()median() mode() 方法计算列的均值(所有值加起来的平均值)、中位数值(排序后位置在中间的数)和众数(出现频率最高的数)。


  • 实例6——使用 mean() 方法计算列的平均值并替换空单元格
import pandas as pd
df = pd.read_csv("property-data.csv")
# 求ST_NUM 列的平均值
x = df["ST_NUM"].mean()
# 将ST_NUM 列中为空的替换为均值
df["ST_NUM"].fillna(x,inplace=True)
print(df.to_string())
# 结果如下:

c14cf371f1844155ac01477d5efef58f.png

  • 实例7——使用 median() 方法计算列的中位数并替换空单元格
import pandas as pd
df = pd.read_csv("property-data.csv")
# 求ST_NUM 列的中位数
x = df["ST_NUM"].median()
# 将ST_NUM 列中为空的替换为中位数
df["ST_NUM"].fillna(x,inplace=True)
print(df.to_string())


a0b398de0ac54eac81f67d3ff2958d4b.png

  • 实例8——使用 mode() 方法计算列的众数并替换空单元格
import pandas as pd
df = pd.read_csv("property-data.csv")
df
# 求ST_NUM 列的众数
x = df["ST_NUM"].mode()
# 将ST_NUM 列中为空的替换为众数
df["ST_NUM"].fillna(x,inplace=True)
print(df.to_string())
#结果如下:
# 由于众数有两个,故而2个空值的位置各自替换了一个值

cac6b742ad354ae2bf6d4f8ed1c46b3b.png

8.2 pandas清洗格式错误数据

数据格式错误的单元格会使数据分析变得困难,甚至无法分析。我们可以通过包含空单元格的行,或者将列中的所有单元格转换为相同格式的数据。

import pandas as pd 
# 第三个日期格式错误
data = {
    "Date":['2020/12/01', '2020/12/02' , '20201226'],
    "duration" : [50,40,30]
}
df = pd.DataFrame(data)
df["Date"] = pd.to_datetime(df["Date"])   # 格式化日期
print(df.to_string())
#结果如下:

488a75e99f4f4b5dabe5f273930185d3.png

8.3 pandas 清洗错误数据

遇到错误数据,我们可以对错误的数据进行替换或移除

  • 实例1——替换错误年龄的数据
# 替换错误年龄的数据
import pandas as pd 
#年龄数据错误
person = {
    "name":["Goole","Runboo","Taobao"],
    "age":[50,53,12345]
}
df = pd.DataFrame(person)
# 利用索引修改数据
df.loc[2,'age']=30   
print(df.to_string())
# 结果如下

44e16cd5e06e4e75be336e2b3460eaae.png

  • 实例2——设置条件语句
# 设置条件语句
import pandas as pd
#年龄数据错误
person = {
    "name":["Goole","Runboo","Taobao"],
    "age":[50,53,12345]
}
df = pd.DataFrame(person)
for x in df.index:
    if df.loc[x,'age']>120:
        df.loc[x,'age']=120
print(df.to_string())
# 结果如下:


b57b8a228b914b19a926c1f84124dcd8.png

8.5 pandas 清洗重复数据

如果我们要清洗重复数据,可以使用 duplicated() drop_duplicates()方法。


  • **实例1——duplicated() **

如果对应的数据是重复的,duplicated() 会返回 True,否则返回 False。

import pandas as pd
person = {
  "name": ['Google', 'Runoob', 'Runoob', 'Taobao'],
  "age": [50, 40, 40, 23]  
}
df = pd.DataFrame(person)
print(df.duplicated())


b03ef5432ae74b48b1553dd80d5419d8.png

  • 实例2——使用drop_duplicates() 方法删除重复数据
import pandas as pd
person = {
  "name": ['Google', 'Runoob', 'Runoob', 'Taobao'],
  "age": [50, 40, 40, 23]  
}
df = pd.DataFrame(person)
df.drop_duplicates(inplace=True)
df


a1a9cde093a94716b2efa571092371cd.png

更多内容待更新~~

相关文章
|
7月前
|
监控 物联网 数据处理
Pandas高级数据处理:数据流式计算
本文介绍了如何使用 Pandas 进行流式数据处理。流式计算能够实时处理不断流入的数据,适用于金融交易、物联网监控等场景。Pandas 虽然主要用于批处理,但通过分块读取文件、增量更新 DataFrame 和使用生成器等方式,也能实现简单的流式计算。文章还详细讨论了内存溢出、数据类型不一致、数据丢失或重复及性能瓶颈等常见问题的解决方案,并建议在处理大规模数据时使用专门的流式计算框架。
450 100
Pandas高级数据处理:数据流式计算
|
7月前
|
数据可视化 数据挖掘 数据处理
Pandas高级数据处理:交互式数据探索
Pandas 是数据分析中常用的数据处理库,提供了强大的数据结构和操作功能。本文从基础到高级,逐步介绍 Pandas 中交互式数据探索的常见问题及解决方案,涵盖数据读取、检查、清洗、预处理、聚合分组和可视化等内容。通过实例代码,帮助用户解决文件路径错误、编码问题、数据类型不一致、缺失值处理等挑战,提升数据分析效率。
164 32
|
7月前
|
数据采集 数据可视化 数据处理
Pandas高级数据处理:数据仪表板制作
《Pandas高级数据处理:数据仪表板制作》涵盖数据清洗、聚合、时间序列处理等技巧,解决常见错误如KeyError和内存溢出。通过多源数据整合、动态数据透视及可视化准备,结合性能优化与最佳实践,助你构建响应快速、数据精准的商业级数据仪表板。适合希望提升数据分析能力的开发者。
160 31
|
7月前
|
存储 安全 数据处理
Pandas高级数据处理:数据安全与隐私保护
在数据驱动的时代,数据安全和隐私保护至关重要。本文探讨了使用Pandas进行数据分析时如何确保数据的安全性和隐私性,涵盖法律法规要求、用户信任和商业价值等方面。通过加密、脱敏、访问控制和日志审计等技术手段,结合常见问题及解决方案,帮助读者在实际项目中有效保护数据。
140 29
|
7月前
|
缓存 数据可视化 BI
Pandas高级数据处理:数据仪表板制作
在数据分析中,面对庞大、多维度的数据集(如销售记录、用户行为日志),直接查看原始数据难以快速抓住重点。传统展示方式(如Excel表格)缺乏交互性和动态性,影响决策效率。为此,我们利用Python的Pandas库构建数据仪表板,具备数据聚合筛选、可视化图表生成和性能优化功能,帮助业务人员直观分析不同品类商品销量分布、省份销售额排名及日均订单量变化趋势,提升数据洞察力与决策效率。
118 12
|
7月前
|
消息中间件 数据挖掘 数据处理
Pandas高级数据处理:数据流式计算
在大数据时代,Pandas作为Python强大的数据分析库,在处理结构化数据方面表现出色。然而,面对海量数据时,如何实现高效的流式计算成为关键。本文探讨了Pandas在流式计算中的常见问题与挑战,如内存限制、性能瓶颈和数据一致性,并提供了详细的解决方案,包括使用`chunksize`分批读取、向量化操作及`dask`库等方法,帮助读者更好地应对大规模数据处理需求。
151 17
|
7月前
|
数据可视化 数据挖掘 数据处理
Pandas高级数据处理:数据可视化进阶
Pandas是数据分析的强大工具,能高效处理数据并与Matplotlib、Seaborn等库集成,实现数据可视化。本文介绍Pandas在绘制基础图表(如折线图)和进阶图表(如分组柱状图、热力图)时的常见问题及解决方案,涵盖数据准备、报错处理、图表优化等内容,并通过代码案例详细解释,帮助读者掌握数据可视化的技巧。
146 13
|
7月前
|
存储 安全 数据处理
Pandas高级数据处理:数据加密与解密
本文介绍如何使用Pandas结合加密库(如`cryptography`)实现数据加密与解密,确保敏感信息的安全。涵盖对称和非对称加密算法、常见问题及解决方案,包括密钥管理、性能优化、字符编码和数据完整性验证。通过示例代码展示具体操作,并提供常见报错的解决方法。
128 24
|
7月前
|
数据采集 SQL 数据可视化
Pandas高级数据处理:交互式数据探索
Pandas是Python中流行的数据分析库,提供丰富的数据结构和函数,简化数据操作。本文从基础到高级介绍Pandas的使用,涵盖安装、读取CSV/Excel文件、数据查看与清洗、类型转换、条件筛选、分组聚合及可视化等内容。掌握这些技能,能高效进行交互式数据探索和预处理。
82 6
|
7月前
|
存储 数据采集 数据挖掘
Pandas高级数据处理:数据流处理
Pandas是Python中高效处理数据分析的流行库。随着数据量增长,传统的批量处理方式难以满足实时性需求,掌握Pandas的数据流处理技术尤为重要。常见问题包括文件格式不兼容、内存不足、缺失值和重复数据等。针对这些问题,可以通过指定参数读取文件、分块读取、填充或删除缺失值、去除重复数据、转换数据类型等方法解决。此外,还需注意KeyError、ValueError和MemoryError等常见报错,并采取相应措施。掌握这些技巧可提高数据处理效率和准确性。
176 26