阿里云天池大赛赛题解析——机器学习篇-赛题一(7)

简介: 阿里云是国内知名的云计算、大数据、人工智能技术型公司,是阿里巴巴集团最重要的技术部门。阿里云天池是阿里云面向开发者和教育行业的资源输出部门,天池大赛是国内最大规模的人工智能算法赛事,致力于汇聚全球AI精英为企业解决真实问题。自2014年至今已举办数十次行业顶级算法赛事,全球参赛开发者超过30万人。然而对于更广大的普通开发者和大学生群体来说,高规格的算法大赛仍然具有很高的门槛。本书就是针对受众最广泛的新手人群而编写的,精选阿里巴巴最典型的人工智能算法应用案例,邀请天池大赛最顶级的获奖选手联合编撰,公开那些鲜为人知的技术秘籍,力图使每一个涉足数据智能算法技术的开发者从中获益......

2.2.4 可视化数据分布

      下面以可视化方式对数据特征、数据分布等进行探索分析。

1. 箱形图

      首先绘制训练集中特征变量V0 的箱形图:

fig = plt.figure(figsize=(4, 6)) # 指定绘图对象的宽度和高度

sns.boxplot(train_data['V0'],orient="v", width=0.5)

运行结果:

1.jpg

      从图中可以看出有偏离值,许多数据点位于下四分位点以下。

      然后绘制训练集中变量V0~V37 的箱形图:

column = train_data.columns.tolist()[:39] # 列表头

fig = plt.figure(figsize=(80, 60), dpi=75) # 指定绘图对象的宽度和高度

for i in range(38):

      plt.subplot(7, 8, i + 1) # 7 行8 列子图

      sns.boxplot(train_data[column[i]], orient="v", width=0.5) #箱式图

      plt.ylabel(column[i], fontsize=36)

plt.show()

运行结果:

2.jpg

      从图中发现数据存在许多偏离较大的异常值,可以考虑移除。

2. 获取异常数据并画图

      此方法是采用模型预测的形式找出异常值,可在看完模型训练和验证的理论讲解后,再回来仔细查看下面的代码。

      获取异常数据的函数,代码如下:

# function to detect outliers based on the predictions of a model

def find_outliers(model, X, y, sigma=3):

      # predict y values using model

      try:

          y_pred = pd.Series(model.predict(X), index=y.index)

      # if predicting fails, try fitting the model first

      except:

          model.fit(X,y)

          y_pred = pd.Series(model.predict(X), index=y.index)

      # calculate residuals between the model prediction and true y values

      resid = y - y_pred

      mean_resid = resid.mean()

      std_resid = resid.std()

      # calculate z statistic, define outliers to be where |z|>sigma

      z = (resid - mean_resid)/std_resid

      outliers = z[abs(z)>sigma].index

      # print and plot the results

      print('R2=',model.score(X,y))

      print("mse=",mean_squared_error(y,y_pred))

      print('---------------------------------------')

      print('mean of residuals:',mean_resid)

      print('std of residuals:',std_resid)

      print('---------------------------------------')

      print(len(outliers),'outliers:')

      print(outliers.tolist())

      plt.figure(figsize=(15,5))

      ax_131 = plt.subplot(1,3,1)

      plt.plot(y,y_pred,'.')

      plt.plot(y.loc[outliers],y_pred.loc[outliers],'ro')

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('y')

      plt.ylabel('y_pred');

      ax_132=plt.subplot(1,3,2)

      plt.plot(y,y-y_pred,'.')

      plt.plot(y.loc[outliers],y.loc[outliers]-y_pred.loc[outliers],'ro')

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('y')

      plt.ylabel('y - y_pred');

      ax_133=plt.subplot(1,3,3)

      z.plot.hist(bins=50,ax=ax_133)

      z.loc[outliers].plot.hist(color='r',bins=50,ax=ax_133)

      plt.legend(['Accepted','Outlier'])

      plt.xlabel('z')

      plt.savefig('outliers.png')

      return outliers

      通过岭回归模型找出异常值,并绘制其分布,代码如下:

from sklearn.linear_model import Ridge

from sklearn.metrics import mean_squared_error

X_train=train_data.iloc[:,0:-1]

y_train=train_data.iloc[:,-1]

outliers = find_outliers(Ridge(), X_train, y_train)

      运行结果:

R2= 0.8890858938210386

mse= 0.10734857773123635

---------------------------------------

mean of residuals: 7.686602970006927e-17

std of residuals: 0.3276976673193503

---------------------------------------

31 outliers:

[321, 348, 376, 777, 884, 1145, 1164, 1310, 1458, 1466, 1484, 1523, 1704,1874, 1879, 1979, 2002, 2279, 2528, 2620, 2645, 2647, 2667, 2668, 2669, 2696,2767, 2769, 2807, 2842, 2863]

3.jpg

      说明:也可以采用其他回归模型代替岭回归模型。

3. 直方图和Q-Q 图

      Q-Q 图是指数据的分位数和正态分布的分位数对比参照的图,如果数据符合正态分布,则所有的点都会落在直线上。首先,通过绘制特征变量V0 的直方图查看其在训练集中的统计分布,并绘制Q-Q 图查看V0 的分布是否近似于正态分布。

      绘制变量V0 的直方图和Q-Q 图,代码如下:

plt.figure(figsize=(10,5))

ax=plt.subplot(1,2,1)

sns.distplot(train_data['V0'],fit=stats.norm)

ax=plt.subplot(1,2,2)

res = stats.probplot(train_data['V0'], plot=plt)

      运行结果:


4.jpg

      可以看到,训练集中特征变量V0 的分布不是正态分布。

      然后,绘制训练集中所有变量的直方图和Q-Q 图。

train_cols = 6

train_rows = len(train_data.columns)

plt.figure(figsize=(4*train_cols,4*train_rows))

i=0

for col in train_data.columns:

      i+=1

      ax=plt.subplot(train_rows,train_cols,i)

      sns.distplot(train_data[col],fit=stats.norm)

      i+=1

      ax=plt.subplot(train_rows,train_cols,i)

      res = stats.probplot(train_data[col], plot=plt)

plt.tight_layout()

plt.show()

      篇幅所限,这里只展示一部分结果:

5.jpg

      从数据分布图可以发现,很多特征变量(如V1,V9,V24,V28 等)的数据分布不是正态的,数据并不跟随对角线分布,后续可以使用数据变换对其进行处理。

4. KDE 分布图

      KDE(Kernel Density Estimation,核密度估计)可以理解为是对直方图的加窗平滑。通过绘制KDE 分布图,可以查看并对比训练集和测试集中特征变量的分布情况,发现两个数据集中分布不一致的特征变量。

      首先对比同一特征变量V0 在训练集和测试集中的分布情况,并查看数据分布是否一致。

plt.figure(figsize=(8,4),dpi=150)

ax = sns.kdeplot(train_data['V0'], color="Red", shade=True)

ax = sns.kdeplot(test_data['V0'], color="Blue", shade=True)

ax.set_xlabel('V0')

ax.set_ylabel("Frequency")

ax = ax.legend(["train","test"])

      运行结果:

6.jpg

      可以看到,V0 在两个数据集中的分布基本一致。

      然后,对比所有变量在训练集和测试集中的KDE 分布。

dist_cols = 6

dist_rows = len(test_data.columns)

plt.figure(figsize=(4 * dist_cols, 4 * dist_rows))

i = 1

for col in test_data.columns:

    ax = plt.subplot(dist_rows, dist_cols, i)

    ax = sns.kdeplot(train_data[col], color="Red", shade=True)

    ax = sns.kdeplot(test_data[col], color="Blue", shade=True)

    ax.set_xlabel(col)

    ax.set_ylabel("Frequency")

    ax = ax.legend(["train", "test"])

    i += 1

plt.show()

      运行结果(这里只展示部分结果):

7.jpg

图1-2-12 分布不一致的特征

5. 线性回归关系图

      线性回归关系图主要用于分析变量之间的线性回归关系。首先查看特征变量V0 与target变量的线性回归关系。

fcols = 2

frows = 1

plt.figure(figsize=(8,4),dpi=150)

ax=plt.subplot(1,2,1)

sns.regplot(x='V0', y='target', data=train_data, ax=ax,

               scatter_kws={'marker':'.','s':3,'alpha':0.3},

               line_kws={'color':'k'});

plt.xlabel('V0')

plt.ylabel('target')

ax=plt.subplot(1,2,2)

sns.distplot(train_data['V0'].dropna())

plt.xlabel('V0')

plt.show()

      运行结果:

8.jpg

      然后查看所有特征变量与target 变量的线性回归关系。

fcols = 6

frows = len(test_data.columns)

plt.figure(figsize=(5*fcols,4*frows))

i=0

for col in test_data.columns:

    i+=1

    ax=plt.subplot(frows,fcols,i)

    sns.regplot(x=col, y='target', data=train_data, ax=ax,

                    scatter_kws={'marker':'.','s':3,'alpha':0.3},

                    line_kws={'color':'k'});

    plt.xlabel(col)

    plt.ylabel('target')

    i+=1

    ax=plt.subplot(frows,fcols,i)

    sns.distplot(train_data[col].dropna())

    plt.xlabel(col)

      运行结果:

9.jpg

相关文章
|
1月前
|
机器学习/深度学习 数据可视化 算法
机器学习-可解释性机器学习:随机森林与fastshap的可视化模型解析
机器学习-可解释性机器学习:随机森林与fastshap的可视化模型解析
117 1
|
1月前
|
机器学习/深度学习 人工智能 算法
【AAAI 2024】再创佳绩!阿里云人工智能平台PAI多篇论文入选
阿里云人工智能平台PAI发表的多篇论文在AAAI-2024上正式亮相发表。AAAI是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。论文成果是阿里云与浙江大学、华南理工大学联合培养项目等共同研发,深耕以通用人工智能(AGI)为目标的一系列基础科学与工程问题,包括多模态理解模型、小样本类增量学习、深度表格学习和文档版面此次入选意味着阿里云人工智能平台PAI自研的深度学习算法达到了全球业界先进水平,获得了国际学者的认可,展现了阿里云人工智能技术创新在国际上的竞争力。
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
在阿里云机器学习平台上布置一个PyTorch模型
在阿里云机器学习平台上布置一个PyTorch模型【1月更文挑战第21天】【1月更文挑战第105篇】
165 1
|
2月前
|
弹性计算 Ubuntu Windows
2024年部署幻兽帕鲁/Palworld服务器多少钱?阿里云帕鲁主机优惠价格解析
对于热爱《幻兽帕鲁》的玩家们来说,一个稳定、高效的游戏服务器是畅享游戏乐趣的关键。那么,搭建一个这样的服务器需要多少钱呢?别担心,阿里云已经为大家准备了超值的幻兽帕鲁Palworld游戏服务器!
|
1天前
|
存储 SQL 缓存
阿里云大学考试python中级题目及解析-python中级
阿里云大学考试python中级题目及解析-python中级
|
4天前
|
存储 开发工具 对象存储
Javaweb之SpringBootWeb案例之阿里云OSS服务入门的详细解析
Javaweb之SpringBootWeb案例之阿里云OSS服务入门的详细解析
11 0
|
29天前
|
域名解析 弹性计算 网络协议
阿里云DNS常见问题之确认域名是否在Private zone解析失败如何解决
阿里云DNS(Domain Name System)服务是一个高可用和可扩展的云端DNS服务,用于将域名转换为IP地址,从而让用户能够通过域名访问云端资源。以下是一些关于阿里云DNS服务的常见问题合集:
|
29天前
|
域名解析 缓存 网络协议
阿里云DNS常见问题之新购域名阿里云DNS无法解析如何解决
阿里云DNS(Domain Name System)服务是一个高可用和可扩展的云端DNS服务,用于将域名转换为IP地址,从而让用户能够通过域名访问云端资源。以下是一些关于阿里云DNS服务的常见问题合集:
|
1月前
|
机器学习/深度学习 运维 算法
机器学习的魔法(三)解析无监督学习的黑科技,揭秘新闻话题背后的神奇算法
机器学习的魔法(三)解析无监督学习的黑科技,揭秘新闻话题背后的神奇算法
|
1月前
|
自然语言处理 算法 关系型数据库
阿里云PAI大模型RAG对话系统最佳实践
本文为大模型RAG对话系统最佳实践,旨在指引AI开发人员如何有效地结合LLM大语言模型的推理能力和外部知识库检索增强技术,从而显著提升对话系统的性能,使其能更加灵活地返回用户查询的内容。适用于问答、摘要生成和其他依赖外部知识的自然语言处理任务。通过该实践,您可以掌握构建一个大模型RAG对话系统的完整开发链路。

推荐镜像

更多