【Python】—— pandas 数据分析

简介: 【Python】—— pandas 数据分析

相关知识了解

当涉及到数据分析时,Pandas 提供了许多功能,使得数据清理、探索性数据分析(EDA)、统计分析和可视化变得更加容易。以下是一些主要关于数据分析的 Pandas 功能:

1. 数据清理

  • 处理缺失值:
# 删除包含缺失值的行
df.dropna(inplace=True)
# 填充缺失值
df.fillna(value, inplace=True)
  • 删除重复值:
df.drop_duplicates(inplace=True)

2. 探索性数据分析(EDA)

  • 基本统计信息:
# 描述性统计信息
df.describe()
# 单独计算均值、中位数等
df.mean()
  • 数据分布可视化:
import matplotlib.pyplot as plt
# 直方图
df['Column1'].hist()
# 箱线图
df.boxplot(column='Column1')

3. 数据过滤和选择

  • 条件过滤:
selected_data = df[df['Column1'] > 2]
  • 按列选择:
df['Column1']

4. 数据分组和聚合

  • 按列分组:
grouped_data = df.groupby('Column2')['Column1'].mean()
  • 多列分组和多个聚合函数:
grouped_data = df.groupby(['Column2', 'Column3']).agg({'Column1': 'mean', 'Column4': 'sum'})

5. 数据合并和连接

  • 合并两个 DataFrame:
merged_df = pd.merge(df1, df2, on='common_column', how='inner')
  • 连接操作:
concatenated_df = pd.concat([df1, df2], axis=0)

6. 时间序列分析

  • 处理日期数据:
df['Date'] = pd.to_datetime(df['Date'])
  • 时间序列分析:
df.resample('M').mean()  # 按月重采样并计算均值

7. 统计分析

  • 相关性分析:
correlation_matrix = df.corr()
  • 假设检验:
from scipy.stats import ttest_ind
t_stat, p_value = ttest_ind(df_group1['Column1'], df_group2['Column1'])

这些只是 Pandas 提供的数据分析功能的一小部分。在实际应用中,通常需要根据具体的数据集和分析目标使用更多的方法和技巧。

接下来让我们一起学习与闯关吧!


第1关:了解数据集特征

任务描述

本关任务:载入网贷数据集,了解数据概况。

共包含多个子任务:

1.1 读取Training_Master.csv文件,命名为master

1.2 读取Training_Userupdate.csv文件,命名为user

1.3 读取Training_LogInfo.csv文件,命名为log

1.4 分别输出它们的形状;

1.5 输出包含master7个列名的列表;

1.6 输出user表的前3行。

知识讲解

为了完成本关任务,你需要掌握:

1.pandas模块导入

import pandas as pd

2.pandas模块下的数据文件读取方法

read_csv()
#返回DataFrame类型对象

若数据包含中文,需添加参数encoding='gbk'

3.了解数据集基本特征的方法。

DataFrame.shape    #DataFrame形状
DataFrame.head(n)  #DataFrame数据的前n行
DataFrame.columns  #DataFrame的列索引

编程要求

根据提示,在右侧编辑器补充代码。

运行代码

# -*- coding: utf-8 -*-
'''
第1关 : 了解数据集特征
'''
# 1.1 读取Training_Master.csv文件,命名为master;
master = pd.read_csv('Training_Master.csv', encoding='gbk')
# 1.2 读取Training_Userupdate.csv文件,命名为user;
user = pd.read_csv('Training_Userupdate.csv', encoding='gbk') 
# 1.3 读取Training_LogInfo.csv文件,命名为log;
log = pd.read_csv('Training_LogInfo.csv', encoding='gbk') 
# 1.4 分别输出它们的形状;
print(master .shape)
print(user .shape)
print(log.shape)
# 1.5 输出包含master后7个列名的列表;
a = [i for i in master.colums[-7:]]
print(a)
# 1.6 输出user表的前3行。
print(user.head(3))

第2关:DataFrame 的 CRUD

任务描述

本关任务:使用DataFrame结构深入了解数据集细节。

包含4个子任务:

2.1 查询master表的列名前缀;

2.2 删除master表的列;

2.3 在master表中增加列;

2.4 修改master表数据。

知识讲解

为了完成本关任务,你需要掌握:

获取DataFrame列名

DataFrame.columns返回DataFrame的列名Index对象

例如:

In [1]: log.columns
Out[1]: Index(['Idx', 'Listinginfo1', 'LogInfo1', 'LogInfo2', 'LogInfo3'], dtype='object')

字符串分割

str.split(分隔符) 返回字符串列表

例如:

In [2]:'SocialNetwork_12'.split('_')
Out[2]: ['SocialNetwork', '12']

删除DataFrame的列

根据索引名称(label)删除指定的行(axis = 0)或列(axis = 1),inplace指定是否删除原数据。

label可以是字符串,也可以是字符串列表。

DataFrame.drop(label,axis,inplace)

Series的广播操作

ndarray结构一样,Series结构也支持广播操作。

根据行列索引名称查询DataFrame

loc方法的参数很灵活,名称、名称列表、条件表达式均可,需根据实际情况灵活使用。条件表达式本质上仍是索引名列表。

DataFrame.loc[行索引名或条件表达式,列索引名或条件表达式]

编程要求

根据提示,补充代码。

运行代码

# -*- coding: utf-8 -*-
'''
第2关:DataFrame 的 CRUD
'''
import pandas as pd
master = pd.read_csv('Training_Master.csv', encoding='gbk')
user = pd.read_csv('Training_Userupdate.csv', encoding='gbk') 
log = pd.read_csv('Training_LogInfo.csv', encoding='gbk') 
# 2.1 查询master表的列名前缀列表,并按字母升序输出该列表;
# 例如:SocialNetwork_12列的列名前缀为:SocialNetwork
lc = list(master.colums)
lx = list()
for i in lc:
  x = i.split("_")
    if x[0] not in lx:
      lx.append(x[0])
lx.sort()
print(lx)
# 2.2 删除master表的列名前缀为:SocialNetwork的列;
# 输出:共**列被删除
count = 0
iy = list()
for ix in lc:
  x = ix.split("_")
  if x[0] = 'SocialNetwork':
    iy.append(ix)
    count=count+1
print('共{0}列被删除。'.format(count))
ma = master.drop(labels = iy,axis = 1)
# 2.3 在master表中最右侧增加一列Result,
# 记录 UserInfo_1和UserInfo_3的和,
# 并输出这三列的前5行
ma['Result'] = ma['UserInfo_1'] + ma['UserInfo_3']
mb = ma[['UserInfo_1','UserInfo_3','Result']].head(5)
print(mb)
# 2.4 将UserInfo_2列中所有的“深圳”替换为“中国深圳”,
# 并计算“中国深圳”的用户数
mc = master['UserInfo_2']
mc = mc.replace('深圳','中国深圳')
cou = 0
for i in mc:
  if i == '':
    cou = ou + 1
print(cou)

第3关:利用 pandas 实现数据统计分析

任务描述

本关任务:利用pandas进行数据统计分析。

本关共包含4个子任务:

3.1 用户来源地分析;

3.2 未登录用户分析;

3.3 用户活跃度分析;

3.4 用户活跃期分析。

具体任务内容详见代码注释。

知识讲解

为了完成本关任务,你需要掌握:

数据频数统计

Series.value_counts()
#返回Series类型数据,表达Series每个取值的出现次数。

简单数据统计

DataFrame.agg(np中的简单统计方法)
#按列统计,直接返回统计结果

时间字符串转换为时间类型数据

pd.to_datetime(Series或DataFrame)

取时间数据的星期名称

Timestamp.day_name()

数据分组

DataFrame.groupby(列索引)
#返回DataFrameGroupBy对象,
DataFrameGroupBy.nunique()
#分组对象的nunique方法直接返回每个分组中不重复值的个数。

编程要求

根据提示,补充代码。

运行代码

# -*- coding: utf-8 -*-
'''
 第3关:利用 pandas 实现数据统计分析
'''
import pandas as pd
import numpy as np
master = pd.read_csv('Training_Master.csv', encoding='gbk')
user = pd.read_csv('Training_Userupdate.csv', encoding='gbk') 
log = pd.read_csv('Training_LogInfo.csv', encoding='gbk') 
# 3.1 用户来源地分析;
#     在master表中用value_counts方法实现按用户所在地(UserInfo_2)统计用户数
#     并按照如下格式输出统计结果的前5项(其中为英文字符号)
#     城市:(用户数)
vacount=master['UserInfo_2'].value_counts()
va=vacount.head(5)
vb=va.index
for i in range(5):
  print('{}:({})'.format(vb[i],va[i]))
# 3.2 未登录用户分析;
#     结合master表和log表的内容,
#     求取从未登录的用户的数量,直接输出
ms=set(master['Idx'])
ls=set(log['Idx']
nologuser=ms-ls
print(len(nologuser))
# 3.3 用户活跃度分析;
#     求取信息更新(user表)次数最多的用户的最早登录时间(LogInfo3)
#     输出用户Idx,更新次数,最早登录时间
counts=user['Idx'].value_counts().head(1)
ci=counts.index
logtime=log[log['Idx']==ci[0]]['LogInfo3'].agg(np.min)
print(ci[0],counts.values[0],logtime)
# 3.4 用户活跃期分析。
#     给user表增加新列“weekday”,填入更新日期(UserupdateInfo2)相应的星期名称
#     用groupby和nunique方式实现
#     按星期名称统计用户更新人数(注意,是人数),并输出
user['weekday']=[i.day_name() for i in pd.to_datetime(user['UserupdateInfo2'])]
weekgroup=user[['Idx','weekday']].groupby('weekday')
weekcounts=weekgroup.nunique()['Idx']
print(weekcounts)


相关文章
|
4天前
|
数据挖掘 计算机视觉 Python
Python数据分析13
Pillow 是 PIL(Python Imaging Library)的升级版本,适应 Python 3 的更新而诞生,带来了诸多新特性。它采用模块化结构,主要包括:图像功能模块(Image)、图像滤波功能模块(ImageFilter)、图像增强功能模块(ImageEnhance)和图像绘画功能模块(ImageDraw)。Pillow 支持从多种图像格式读取数据,进行处理,并能输出为常见格式,其官网提供了丰富的应用示例供学习参考。
16 4
|
1天前
|
SQL 数据采集 数据可视化
深入 Python 数据分析:高级技术与实战应用
本文系统地介绍了Python在高级数据分析中的应用,涵盖数据读取、预处理、探索及可视化等关键环节,并详细展示了聚类分析、PCA、时间序列分析等高级技术。通过实际案例,帮助读者掌握解决复杂问题的方法,提升数据分析技能。使用pandas、matplotlib、seaborn及sklearn等库,提供了丰富的代码示例,便于实践操作。
102 64
|
2天前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python进行数据分析的入门指南
【9月更文挑战第33天】本文旨在为初学者提供一个关于使用Python进行数据分析的全面概述。我们将从基本的安装和设置开始,逐步介绍数据处理、数据可视化以及机器学习的基本概念和应用。文章将通过实际代码示例来展示如何使用Python及其相关库来解决常见的数据分析问题。
|
5天前
|
数据挖掘 Serverless 计算机视觉
Python数据分析 11
SciPy是一款专为数学、科学及工程应用设计的开源软件,它基于NumPy的n维数组构建,提供了丰富的数值例程,包括积分、优化、线性代数等,适用于各种操作系统,安装简易且免费。它还包含了如快速傅里叶变换、信号处理、图像处理、特殊函数计算等功能,满足了科学计算与工程需求。相较于NumPy的一般数组,SciPy提供了真正的矩阵及其相关运算支持。
24 7
|
5天前
|
机器学习/深度学习 数据挖掘 算法框架/工具
Python数据分析6
Keras是一个用Python编写的深度学习框架,支持TensorFlow等多种后端,以其高度模块化、用户友好性和易扩展性著称。它不仅适用于搭建普通神经网络,还能够构建自编码器、循环神经网络、卷积神经网络等多种模型,并且可以无缝切换CPU和GPU。相比Theano,Keras极大简化了神经网络模型的搭建过程,使普通用户也能轻松创建复杂的深度学习模型,仅需几十行代码即可完成。需要注意的是,Keras的预测函数采用`model.predict()`输出概率,`model.predict_classes()`输出分类结果。
16 6
|
5天前
|
自然语言处理 搜索推荐 数据挖掘
Python 数据分析10
除了常用的Python数据挖掘建模库外,还有许多其他库也非常实用,例如 jieba、SciPy、OpenCV 和 Pillow 等。其中,jieba 是一个广泛使用的中文分词库,支持多种编程语言,包括 Python、R 和 C++,并且提供了三种分词模式:精确模式、全模式和搜索引擎模式。此外,jieba 还具备词性标注、添加自定义词典及关键词提取等功能,在 GitHub 社区中有较高讨论度,并拥有丰富的实例资源。
18 5
|
6天前
|
数据采集 数据可视化 数据挖掘
Python量化炒股常用的Pandas包
Python量化炒股常用的Pandas包
22 7
|
6天前
|
数据可视化 数据挖掘 Unix
Python数据分析3
Matplotlib是由约翰·亨特在2008年发明的一款广泛应用于数据可视化的Python工具包,起初用于可视化癞痢病人的健康指标。它是一个功能强大的绘图库,主要擅长二维绘图,也支持简单的三维绘图。Matplotlib提供类似且更丰富的Matlab命令集,能够快速实现数据可视化,并支持高质量图像输出及多种格式。它适用于交互和非交互式绘图,兼容Linux、Windows、macOS和Solaris系统,并且便于嵌入GUI应用及Web框架如CGI、Flask、Django中,同时支持LaTeX公式插入,降低了从Matlab迁移的学习成本。
24 7
|
5天前
|
机器学习/深度学习 数据挖掘 PyTorch
Python数据分析7
PyTorch是由Facebook(现Meta)人工智能研究院于2017年开源的Python机器学习库,基于Torch构建,支持GPU加速和动态神经网络,适用于自然语言处理等领域。其灵活的API和简洁的语法使得构建和调试深度学习模型变得简单快捷,成为深度学习领域的热门工具之一。社区支持广泛,拥有丰富的应用领域库。
12 3
|
4天前
|
算法 数据挖掘 计算机视觉
Python数据分析12
OpenCV是由英特尔公司资助的开源计算机视觉库,集成了丰富的图像处理与计算机视觉算法,拥有超过500个函数,支持多种编程语言与操作系统。该库采用模块化设计,主要包括核心功能、图像处理、2D特征及GUI四个模块,广泛应用于产品检测、医学成像等多个领域。
11 1
下一篇
无影云桌面