Demo1 - 一元线性回归

简介: scikit-learn的一元线性回归y = a + bx(已知一堆 x,y的值, 找到a,b的值)。编写代码scikit_learn_linear_model_demo.

scikit-learn的一元线性回归

y = a + bx
(已知一堆 x,y的值, 找到a,b的值)。

编写代码scikit_learn_linear_model_demo.py如下:

import numpy as np
from sklearn.linear_model import LinearRegression

x = [[1],[2],[3],[4],[5],[6]]
y = [[1],[2.1],[2.9],[4.2],[5.1],[5.8]]
model = LinearRegression()
model.fit(x, y)
predicted = model.predict([13])[0]
print predicted

执行结果:

[[ 12.82666667]]

这里面的model是一个estimator,它通过fit()方法来算出模型参数,并通过predict()方法来预测

LinearRegression的fit()方法就是学习这个一元线性回归模型:

目录
相关文章
|
机器学习/深度学习 算法
最小二乘法的极大似然解释
在真实数据中,一个x值可能对应多个y值,因为实际y值可能是受多种因素影响,所以我们可以假设任意一个x对于的y的真实值服从正态分布。我们什么时候可以认为模型 hθ(x)hθ(x) 拟合出来的点最好?当然是 hθ(x)hθ(x) 取值概率最大的时候。
90 1
|
7月前
|
机器学习/深度学习 算法 数据可视化
[04-00]单变量线性回归问题
[04-00]单变量线性回归问题
|
8月前
|
机器学习/深度学习 Python
R语言在逻辑回归中求R square R方
R语言在逻辑回归中求R square R方
|
机器学习/深度学习 Python
线性回归 最小二乘法的求解推导与基于Python的底层代码实现
作为最常见的方法之一,线性回归仍可视为有监督机器学习的方法之一,同时也是一种广泛应用统计学和数据分析的基本技术。它是一种用于估计两个或多个变量之间线性关系的方法,其中一个变量是自变量,另一个变量是因变量。线性回归假设这两个变量之间存在线性关系,并试图找到一条最佳拟合直线,使预测值与实际值之间的误差最小化。
|
8月前
|
算法 Python
R语言具有Student-t分布改进的GARCH(1,1)模型的贝叶斯估计
R语言具有Student-t分布改进的GARCH(1,1)模型的贝叶斯估计
|
8月前
|
前端开发 数据库
R语言基于Bootstrap的线性回归预测置信区间估计方法
R语言基于Bootstrap的线性回归预测置信区间估计方法
|
8月前
|
机器学习/深度学习 算法 数据挖掘
回归分析讲解及一元线性回归和逻辑回归对iris数据集分析实战(附源码 超详细)
回归分析讲解及一元线性回归和逻辑回归对iris数据集分析实战(附源码 超详细)
277 0
|
数据挖掘 知识图谱
Matlab参数估计与假设检验(举例解释)
Matlab参数估计与假设检验(举例解释)
148 0
|
机器学习/深度学习 数据可视化 Python
Python 实现 8 个概率分布公式及可视化!
Python 实现 8 个概率分布公式及可视化!
|
人工智能 开发者
回归方程求解小例子 | 学习笔记
快速学习回归方程求解小例子
回归方程求解小例子 | 学习笔记