ML:根据不同机器学习模型输出的预测值+且与真实值相减得到绝对误差对比+误差可视化

简介: ML:根据不同机器学习模型输出的预测值+且与真实值相减得到绝对误差对比+误差可视化

输出结果

image.png


实现代码

# -*- coding: utf-8 -*-

#ML:根据不同机器学习模型输出的预测值+且与真实值相减得到绝对误差对比+误差可视化

#Model_comparison_error_Plot()函数:根据不同模型预测值输出绝对误差对比且可视化

def Model_comparison_error_Plot(list_str01,list_str02,list_num00, Xlabel,Ylabel,title):

   #数字列表相减功能:将两个字符串列表改为数字列表并相减

   #(1)、依次将两个字符串列表改为数字列表

   import numpy as np

   list_num01 = list(map(float, list_str01))

   list_num02 = list(map(float, list_str02))

 

   #(2)、列表内数字相减求差

   #T1、利用array方法

   list_array01 = np.array(list_num01)

   list_array02 = np.array(list_num02)

   list_array00 = np.array(list_num00)     #定义标准列表

 

   list_subtraction01 = list_array00 - list_array01

   list_subtraction02 = list_array00 - list_array02

   print(list_array00)

   print('list_subtraction01', list_subtraction01)

   print('list_subtraction02', list_subtraction02)

 

   #T2、利用列表的for循环指针对应取出法

   error01 = []

   error02 = []

   for i in range(len(list_num00)):

       error01.append(round (list_num01[i] - list_num00[i],3) )

       error02.append(round (list_num02[i] - list_num00[i],3) )

   print(error01)

   print(error02)

 

   #(3)、绘制error曲线

   import matplotlib.pyplot as plt

 

   x = range(0,len(list_subtraction01))

   y1 = list_subtraction01

   y2 = list_subtraction02

   y_zero = [0 for x in range(0, len(list_subtraction01))]

   plt.plot(x,y_zero,'r--',label='zero')

   plt.plot(x,y1,'g',label='STD-DTR')                      

   plt.plot(x,y2,'b',label='STD-XGBR')

 

   plt.xlabel(Xlabel)

   plt.ylabel(Ylabel)

   plt.title(title)

 

   plt.legend(loc=1)  

   plt.show()

DTR_list =  ['67.330', '66.794', '65.319', '65.435', '67.903', '67.743', '63.994', '62.466', '67.581', '67.505', '64.196', '63.726', '66.749', '67.363', '65.962', '65.630', '66.602', '66.956', '63.730', '63.858', '67.370', '66.902', '63.392', '63.408', '64.428', '73.083', '72.952', '73.561', '73.148', '73.258', '72.558']

XGBR_list =  ['66.398', '66.308', '66.197', '66.323', '66.388', '66.388', '65.761', '65.074', '65.516', '65.448', '65.534', '65.530', '64.163', '64.097', '62.860', '62.860', '63.771', '63.926', '62.667', '62.902', '62.981', '62.981', '62.987', '62.897', '66.465', '72.292', '71.947', '71.947', '71.947', '71.947', '71.928']

real_list = [64, 68, 64, 68, 65, 65, 63, 63, 66, 65, 65, 65, 64, 65, 61, 62, 64, 63, 66, 60, 66, 62, 64, 61, 71, 75, 73, 73, 73, 73, 73]

title = 'Comparisons and Visualization of Absolute Errors in Output of Predicted Values of Different Models'

Xlabel = 'working condition'

Ylabel = 'Absolute Error Value'

Model_comparison_error_Plot(DTR_list,XGBR_list,real_list,Xlabel,Ylabel,title)


相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
665 109
|
3月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
月之暗面发布开源模型Kimi K2,采用MoE架构,参数达1T,激活参数32B,具备强代码能力及Agent任务处理优势。在编程、工具调用、数学推理测试中表现优异。阿里云PAI-Model Gallery已支持云端部署,提供企业级方案。
299 0
【新模型速递】PAI-Model Gallery云上一键部署Kimi K2模型
|
4月前
|
机器学习/深度学习 算法 安全
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
本文探讨在敏感数据上应用差分隐私(DP)进行机器学习的挑战与实践。通过模拟DP-SGD算法,在模型训练中注入噪声以保护个人隐私。实验表明,该方法在保持71%准确率和0.79 AUC的同时,具备良好泛化能力,但也带来少数类预测精度下降的问题。研究强调差分隐私应作为模型设计的核心考量,而非事后补救,并提出在参数调优、扰动策略选择和隐私预算管理等方面的优化路径。
363 3
差分隐私机器学习:通过添加噪声让模型更安全,也更智能
|
3月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI-Model Gallery云上一键部署gpt-oss系列模型
阿里云 PAI-Model Gallery 已同步接入 gpt-oss 系列模型,提供企业级部署方案。
|
4月前
|
机器学习/深度学习 分布式计算 Java
Java 大视界 -- Java 大数据机器学习模型在遥感图像土地利用分类中的优化与应用(199)
本文探讨了Java大数据与机器学习模型在遥感图像土地利用分类中的优化与应用。面对传统方法效率低、精度差的问题,结合Hadoop、Spark与深度学习框架,实现了高效、精准的分类。通过实际案例展示了Java在数据处理、模型融合与参数调优中的强大能力,推动遥感图像分类迈向新高度。
|
4月前
|
机器学习/深度学习 存储 Java
Java 大视界 -- Java 大数据机器学习模型在游戏用户行为分析与游戏平衡优化中的应用(190)
本文探讨了Java大数据与机器学习模型在游戏用户行为分析及游戏平衡优化中的应用。通过数据采集、预处理与聚类分析,开发者可深入洞察玩家行为特征,构建个性化运营策略。同时,利用回归模型优化游戏数值与付费机制,提升游戏公平性与用户体验。
|
4月前
|
机器学习/深度学习 算法 Java
Java 大视界 -- Java 大数据机器学习模型在舆情分析中的情感倾向判断与话题追踪(185)
本篇文章深入探讨了Java大数据与机器学习在舆情分析中的应用,重点介绍了情感倾向判断与话题追踪的技术实现。通过实际案例,展示了如何利用Java生态工具如Hadoop、Hive、Weka和Deeplearning4j进行舆情数据处理、情感分类与趋势预测,揭示了其在企业品牌管理与政府决策中的重要价值。文章还展望了多模态融合、实时性提升及个性化服务等未来发展方向。
|
1月前
|
机器学习/深度学习 数据采集 人工智能
【机器学习算法篇】K-近邻算法
K近邻(KNN)是一种基于“物以类聚”思想的监督学习算法,通过计算样本间距离,选取最近K个邻居投票决定类别。支持多种距离度量,如欧式、曼哈顿、余弦相似度等,适用于分类与回归任务。结合Scikit-learn可高效实现,需合理选择K值并进行数据预处理,常用于鸢尾花分类等经典案例。(238字)
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
1152 6
|
6月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。

热门文章

最新文章