阿里云天池大赛赛题解析——机器学习篇-赛题一(7)

本文涉及的产品
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析 DNS,旗舰版 1个月
简介: 阿里云是国内知名的云计算、大数据、人工智能技术型公司,是阿里巴巴集团最重要的技术部门。阿里云天池是阿里云面向开发者和教育行业的资源输出部门,天池大赛是国内最大规模的人工智能算法赛事,致力于汇聚全球AI精英为企业解决真实问题。自2014年至今已举办数十次行业顶级算法赛事,全球参赛开发者超过30万人。然而对于更广大的普通开发者和大学生群体来说,高规格的算法大赛仍然具有很高的门槛。本书就是针对受众最广泛的新手人群而编写的,精选阿里巴巴最典型的人工智能算法应用案例,邀请天池大赛最顶级的获奖选手联合编撰,公开那些鲜为人知的技术秘籍,力图使每一个涉足数据智能算法技术的开发者从中获益......

2.2.4 可视化数据分布

      下面以可视化方式对数据特征、数据分布等进行探索分析。

1. 箱形图

      首先绘制训练集中特征变量V0 的箱形图:

fig = plt.figure(figsize=(4, 6)) # 指定绘图对象的宽度和高度

sns.boxplot(train_data['V0'],orient="v", width=0.5)

运行结果:

1.jpg

      从图中可以看出有偏离值,许多数据点位于下四分位点以下。

      然后绘制训练集中变量V0~V37 的箱形图:

column = train_data.columns.tolist()[:39] # 列表头

fig = plt.figure(figsize=(80, 60), dpi=75) # 指定绘图对象的宽度和高度

for i in range(38):

      plt.subplot(7, 8, i + 1) # 7 行8 列子图

      sns.boxplot(train_data[column[i]], orient="v", width=0.5) #箱式图

      plt.ylabel(column[i], fontsize=36)

plt.show()

运行结果:

2.jpg

      从图中发现数据存在许多偏离较大的异常值,可以考虑移除。

2. 获取异常数据并画图

      此方法是采用模型预测的形式找出异常值,可在看完模型训练和验证的理论讲解后,再回来仔细查看下面的代码。

      获取异常数据的函数,代码如下:

# function to detect outliers based on the predictions of a model

def find_outliers(model, X, y, sigma=3):

      # predict y values using model

      try:

          y_pred = pd.Series(model.predict(X), index=y.index)

      # if predicting fails, try fitting the model first

      except:

          model.fit(X,y)

          y_pred = pd.Series(model.predict(X), index=y.index)

      # calculate residuals between the model prediction and true y values

      resid = y - y_pred

      mean_resid = resid.mean()

      std_resid = resid.std()

      # calculate z statistic, define outliers to be where |z|>sigma

      z = (resid - mean_resid)/std_resid

      outliers = z[abs(z)>sigma].index

      # print and plot the results

      print('R2=',model.score(X,y))

      print("mse=",mean_squared_error(y,y_pred))

      print('---------------------------------------')

      print('mean of residuals:',mean_resid)

      print('std of residuals:',std_resid)

      print('---------------------------------------')

      print(len(outliers),'outliers:')

      print(outliers.tolist())

      plt.figure(figsize=(15,5))

      ax_131 = plt.subplot(1,3,1)

      plt.plot(y,y_pred,'.')

      plt.plot(y.loc[outliers],y_pred.loc[outliers],'ro')

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('y')

      plt.ylabel('y_pred');

      ax_132=plt.subplot(1,3,2)

      plt.plot(y,y-y_pred,'.')

      plt.plot(y.loc[outliers],y.loc[outliers]-y_pred.loc[outliers],'ro')

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('y')

      plt.ylabel('y - y_pred');

      ax_133=plt.subplot(1,3,3)

      z.plot.hist(bins=50,ax=ax_133)

      z.loc[outliers].plot.hist(color='r',bins=50,ax=ax_133)

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('z')

      plt.savefig('outliers.png')

      return outliers

      通过岭回归模型找出异常值,并绘制其分布,代码如下:

from sklearn.linear_model import Ridge

from sklearn.metrics import mean_squared_error

X_train=train_data.iloc[:,0:-1]

y_train=train_data.iloc[:,-1]

outliers = find_outliers(Ridge(), X_train, y_train)

      运行结果:

R2= 0.8890858938210386

mse= 0.10734857773123635

---------------------------------------

mean of residuals: 7.686602970006927e-17

std of residuals: 0.3276976673193503

---------------------------------------

31 outliers:

[321, 348, 376, 777, 884, 1145, 1164, 1310, 1458, 1466, 1484, 1523, 1704,1874, 1879, 1979, 2002, 2279, 2528, 2620, 2645, 2647, 2667, 2668, 2669, 2696,2767, 2769, 2807, 2842, 2863]

3.jpg

      说明:也可以采用其他回归模型代替岭回归模型。

3. 直方图和Q-Q 图

      Q-Q 图是指数据的分位数和正态分布的分位数对比参照的图,如果数据符合正态分布,则所有的点都会落在直线上。首先,通过绘制特征变量V0 的直方图查看其在训练集中的统计分布,并绘制Q-Q 图查看V0 的分布是否近似于正态分布。

      绘制变量V0 的直方图和Q-Q 图,代码如下:

plt.figure(figsize=(10,5))

ax=plt.subplot(1,2,1)

sns.distplot(train_data['V0'],fit=stats.norm)

ax=plt.subplot(1,2,2)

res = stats.probplot(train_data['V0'], plot=plt)

      运行结果:


4.jpg

      可以看到,训练集中特征变量V0 的分布不是正态分布。

      然后,绘制训练集中所有变量的直方图和Q-Q 图。

train_cols = 6

train_rows = len(train_data.columns)

plt.figure(figsize=(4*train_cols,4*train_rows))

i=0

for col in train_data.columns:

      i+=1

      ax=plt.subplot(train_rows,train_cols,i)

      sns.distplot(train_data[col],fit=stats.norm)

      i+=1

      ax=plt.subplot(train_rows,train_cols,i)

      res = stats.probplot(train_data[col], plot=plt)

plt.tight_layout()

plt.show()

      篇幅所限,这里只展示一部分结果:

5.jpg

      从数据分布图可以发现,很多特征变量(如V1,V9,V24,V28 等)的数据分布不是正态的,数据并不跟随对角线分布,后续可以使用数据变换对其进行处理。

4. KDE 分布图

      KDE(Kernel Density Estimation,核密度估计)可以理解为是对直方图的加窗平滑。通过绘制KDE 分布图,可以查看并对比训练集和测试集中特征变量的分布情况,发现两个数据集中分布不一致的特征变量。

      首先对比同一特征变量V0 在训练集和测试集中的分布情况,并查看数据分布是否一致。

plt.figure(figsize=(8,4),dpi=150)

ax = sns.kdeplot(train_data['V0'], color="Red", shade=True)

ax = sns.kdeplot(test_data['V0'], color="Blue", shade=True)

ax.set_xlabel('V0')

ax.set_ylabel("Frequency")

ax = ax.legend(["train","test"])

      运行结果:

6.jpg

      可以看到,V0 在两个数据集中的分布基本一致。

      然后,对比所有变量在训练集和测试集中的KDE 分布。

dist_cols = 6

dist_rows = len(test_data.columns)

plt.figure(figsize=(4 * dist_cols, 4 * dist_rows))

i = 1

for col in test_data.columns:

    ax = plt.subplot(dist_rows, dist_cols, i)

    ax = sns.kdeplot(train_data[col], color="Red", shade=True)

    ax = sns.kdeplot(test_data[col], color="Blue", shade=True)

    ax.set_xlabel(col)

    ax.set_ylabel("Frequency")

    ax = ax.legend(["train", "test"])

    i += 1

plt.show()

      运行结果(这里只展示部分结果):

7.jpg

图1-2-12 分布不一致的特征

5. 线性回归关系图

      线性回归关系图主要用于分析变量之间的线性回归关系。首先查看特征变量V0 与target变量的线性回归关系。

fcols = 2

frows = 1

plt.figure(figsize=(8,4),dpi=150)

ax=plt.subplot(1,2,1)

sns.regplot(x='V0', y='target', data=train_data, ax=ax,

               scatter_kws={'marker':'.','s':3,'alpha':0.3},

               line_kws={'color':'k'});

plt.xlabel('V0')

plt.ylabel('target')

ax=plt.subplot(1,2,2)

sns.distplot(train_data['V0'].dropna())

plt.xlabel('V0')

plt.show()

      运行结果:

8.jpg

      然后查看所有特征变量与target 变量的线性回归关系。

fcols = 6

frows = len(test_data.columns)

plt.figure(figsize=(5*fcols,4*frows))

i=0

for col in test_data.columns:

    i+=1

    ax=plt.subplot(frows,fcols,i)

    sns.regplot(x=col, y='target', data=train_data, ax=ax,

                    scatter_kws={'marker':'.','s':3,'alpha':0.3},

                    line_kws={'color':'k'});

    plt.xlabel(col)

    plt.ylabel('target')

    i+=1

    ax=plt.subplot(frows,fcols,i)

    sns.distplot(train_data[col].dropna())

    plt.xlabel(col)

      运行结果:

9.jpg

相关文章
|
14天前
|
机器学习/深度学习 人工智能 弹性计算
阿里云GPU服务器全解析_GPU价格收费标准_GPU优势和使用说明
阿里云GPU云服务器提供强大的GPU算力,适用于深度学习、科学计算、图形可视化和视频处理等场景。作为亚太领先的云服务商,阿里云GPU云服务器具备高灵活性、易用性、容灾备份、安全性和成本效益,支持多种实例规格,满足不同业务需求。
|
24天前
|
机器学习/深度学习 人工智能 自然语言处理
【EMNLP2024】阿里云人工智能平台 PAI 多篇论文入选 EMNLP2024
阿里云人工智能平台 PAI 的多篇论文在 EMNLP2024 上入选。论文成果是阿里云与华南理工大学金连文教授团队、复旦大学王鹏教授团队共同研发。EMNLP 是人工智能自然语言处理领域的顶级国际会议,聚焦于自然语言处理技术在各个应用场景的学术研究,尤其重视自然语言处理的实证研究。该会议曾推动了预训练语言模型、文本挖掘、对话系统、机器翻译等自然语言处理领域的核心创新,在学术和工业界都有巨大的影响力。此次入选标志着阿里云人工智能平台 PAI 在自然语言处理和多模态算法能力方面研究获得了学术界认可。
|
28天前
|
存储 弹性计算 NoSQL
"从入门到实践,全方位解析云服务器ECS的秘密——手把手教你轻松驾驭阿里云的强大计算力!"
【10月更文挑战第23天】云服务器ECS(Elastic Compute Service)是阿里云提供的基础云计算服务,允许用户在云端租用和管理虚拟服务器。ECS具有弹性伸缩、按需付费、简单易用等特点,适用于网站托管、数据库部署、大数据分析等多种场景。本文介绍ECS的基本概念、使用场景及快速上手指南。
69 3
|
1月前
|
域名解析 网络协议
非阿里云注册域名如何在云解析DNS设置解析?
非阿里云注册域名如何在云解析DNS设置解析?
|
1月前
|
运维 Cloud Native 持续交付
云原生技术解析:从IO出发,以阿里云原生为例
【10月更文挑战第24天】随着互联网技术的不断发展,传统的单体应用架构逐渐暴露出扩展性差、迭代速度慢等问题。为了应对这些挑战,云原生技术应运而生。云原生是一种利用云计算的优势,以更灵活、可扩展和可靠的方式构建和部署应用程序的方法。它强调以容器、微服务、自动化和持续交付为核心,旨在提高开发效率、增强系统的灵活性和可维护性。阿里云作为国内领先的云服务商,在云原生领域有着深厚的积累和实践。
57 0
|
1月前
|
监控 网络协议 数据挖掘
阿里云国际云解析DNS如何开启/关闭流量分析?
阿里云国际云解析DNS如何开启/关闭流量分析?
|
1月前
|
人工智能 分布式计算 数据处理
阿里云与传智教育联合直播:深度解析MaxFrame,探索量化交易新纪元
2024年10月15日,阿里云与传智教育联合举办了一场主题为“解密新一代AI+Python分布式计算框架MaxFrame”的直播,对阿里云最新推出的分布式计算框架MaxFrame进行了详细的介绍。
209 0
|
6月前
|
机器学习/深度学习 存储 搜索推荐
利用机器学习算法改善电商推荐系统的效率
电商行业日益竞争激烈,提升用户体验成为关键。本文将探讨如何利用机器学习算法优化电商推荐系统,通过分析用户行为数据和商品信息,实现个性化推荐,从而提高推荐效率和准确性。
243 14
|
6月前
|
机器学习/深度学习 算法 数据可视化
实现机器学习算法时,特征选择是非常重要的一步,你有哪些推荐的方法?
实现机器学习算法时,特征选择是非常重要的一步,你有哪些推荐的方法?
119 1
|
6月前
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)

推荐镜像

更多
下一篇
无影云桌面