机器学习之线性回归的最小二乘法求解-阿里云开发者社区

开发者社区> 人工智能> 正文
登录阅读全文

机器学习之线性回归的最小二乘法求解

简介: 机器学习之线性回归的最小二乘法求解 假设现在一个普通的一阶线性方程,y=2*x+2*t。t是随机噪音,生成的散列点(x,y)会沿直线y=2*x上下摆动。
机器学习之线性回归的最小二乘法求解


假设现在一个普通的一阶线性方程,y=2*x+2*t。t是随机噪音,生成的散列点(x,y)会沿直线y=2*x上下摆动。利用最小二乘法做一次简单的一阶“曲线”拟合。用matlab做数据实验:
t=randn(1,101);  
  
x=[-10:0.2:10];  
y=2*x+t*2;   
s=scatter(x,y);   
s.LineWidth = 0.6;  
s.MarkerEdgeColor = 'g';  
s.MarkerFaceColor = [0 0.7 0.7];  
hold on;   
  
p=polyfit(x,y,1)  
y1=polyval(p,x);  
plot(x,y1,'-r','LineWidth',1);  
  
grid on;  


生成的图:




算出的一阶系数和常量值:
p =

    1.9815   -0.2719


最终求解的拟合方程为:


求解的方程拟合结果比较理想。拟合了y=2*x。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享: