学习笔记: 机器学习经典算法-简单线性回归(一元线性回归)

简介: 机器学习经典算法-个人笔记和学习心得分享

特点:主要用于解决回归问题,线性回归是许多强大非线性模型的基础(多项式回归,逻辑回归,SVM,神经网络...本质都是线性回归的拓展,寻找最优参数),其结果具有很好的可解释性。

假设样本特征与样本输出标记之间存在线性关系,那么就可以寻找一条直线来最大程度拟合它们之间的关系。
① 简单线性回归:样本特征只有一个的回归拟合($ y = ax+ b$);
② 多元线性回归:多样本特征与样本输出标记之间的回归拟合。

1、简单线性回归简介

假设样本特征与样本输出标记之间存在线性关系,这个线性关系由最佳拟合的直线方程$ y = ax+ b$所表示,则对于每个样本点$x^{(i)}$,就有预测值$\hat y^{(i)} = ax^{(i)} +b $,其真值为$y^{(i)}$。样本点$\hat y^{(i)} $与$y^{(i)}$的差距可由$|\hat y^{(i)} - y^{(i)}|$所表示,但 绝对值函数$y=|x|$ 并非处处可导,对于寻找函数的极值点很不方便。从而使用任意点可导的二次函数$(\hat y^{(i)} - y^{(i)})^{2}$来度量真值与预测值的差异更好,考虑所有样本则有$\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}}$。在寻找最优拟合直线的时候,目标就是使得所有样本真值与预测值的差距$\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}} $尽可能小。

一类机器学习算法的基本思路:
找到参数值,使真值与预测值的差距尽可能
$$\sum^{m}_{i} {(\hat y^{(i)} - y^{(i)})^{2}} \rightarrow \sum^{m}_{i} {(y^{(i)}-ax^{(i)} - b)^{2}}$$
以上函数又称 损失函数(loss function),描述的是模型没有拟合到样本的部分,也就是损失的部分。与之相对的是效用函数(utility function),效用函数描述的是拟合上的程度。

所有参数学习的套路:通过分析问题,确定问题的损失函数或效用函数;通过最优化损失函数(尽可能小)或者效用函数(尽可能大),获得机器学习的模型。这个套路可在《最优化原理》《凸优化》中系统学习。

2、最优化损失函数

2.1 最小二乘(平方)法求简单线性回归的参数

对于二元二次形式的损失函数$ J(a,b) = \sum^{m}_{i} {(y^{(i)}-ax^{(i)} - b)^{2}}$,损失函数里变量分别是$a$和$b$,它们都对应一个开口向上的二次函数,使得损失函数最小也就意味着这个二元函数取其极小值,开口向上的二次函数的极小值在其导数为零的点取得。所以通过求偏导的形式可得$J(a,b)$取极小值对应的$a,b$:
$\frac {\partial J(a,b)}{\partial a} = 0,\frac {\partial J(a,b)}{\partial b} = 0$
可解得$a,b$分别为:
$$a = \frac{\sum^{m}_{i} {(x^{(i)} - \overline {x})(y^{(i)} - \overline y)}}{\sum^{m}_{i} {(x^{(i)} - \overline {x})^{2}}}, b = \overline y - a \overline x$$

2.2 最小二乘(平方)法求简单线性回归的python实现
class SimpleLinearRegression:
    def __init__(self):
        """初始化 Simple Linear Regression 模型"""
        self.a_= None
        self.b_ = None
    def fit(self,x_train,y_train):
        """根据训练集x_train,y_train训练 Simple Linear Regression 模型"""
        assert x_train.ndim == 1, "Simple Linear Regressor can only solve single feature tarining data."
        assert len(x_train) == len(y_train), "the size of x_train must be equal to the size of y_train"

        x_mean = np.mean(x_train)
        y_mean = np.mean(y_train)


        num = (x_train - x_mean).dot(y_train - y_mean)  ### 参数a的分子部分的向量化运算
        d   = (x_train - x_mean).dot(x_train - x_mean)  ### 参数a的分母部分向的量化运算

        self.a_ = num/d
        self.b_ = y_mean - self.a_ * x_mean
        return self

    def predict(self,x_predict):
        """给定待预测数据集x_predict,返回表示x_predict的结果向量"""
        assert x_predict.ndim == 1," Simple Linear Regressor can only solve single feature training data."
        assert self.a_ is not None and self.b_ is not None, "must fit before predict!"

        return np.array([self._predict(x) for x in x_predict])
    def _predict(self,x_single):
        """给定单个x_single,返回x的预测结果值"""
        return self.a_ * x_single + self.b_
    def __repr__(self):
        return "SimpleLinearRegression()"

### 方法调用
x = np.random.random(size = 1000)
y = 2.0 * x + 3.0 + np.random.normal(size = 1000)
reg = SimpleLinearRegression()
reg.fit(x,y)
reg.predict(x_predict)
reg.a_
reg.b_
目录
相关文章
|
2月前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
152 4
|
10天前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
100 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
26天前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
48 2
|
1月前
|
机器学习/深度学习 人工智能 算法
探索机器学习:从线性回归到深度学习
本文将带领读者从基础的线性回归模型开始,逐步深入到复杂的深度学习网络。我们将通过代码示例,展示如何实现这些算法,并解释其背后的数学原理。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的见解和知识。让我们一起踏上这段激动人心的旅程吧!
|
2月前
|
机器学习/深度学习 算法 数据挖掘
C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出
本文探讨了C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出。文章还介绍了C语言在知名机器学习库中的作用,以及与Python等语言结合使用的案例,展望了其未来发展的挑战与机遇。
58 1
|
2月前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的线性回归模型
本文深入探讨了机器学习中广泛使用的线性回归模型,从其基本概念和数学原理出发,逐步引导读者理解模型的构建、训练及评估过程。通过实例分析与代码演示,本文旨在为初学者提供一个清晰的学习路径,帮助他们在实践中更好地应用线性回归模型解决实际问题。
|
2月前
|
机器学习/深度学习 自然语言处理 算法
深入理解机器学习算法:从线性回归到神经网络
深入理解机器学习算法:从线性回归到神经网络
|
2月前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
116 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
2月前
|
机器学习/深度学习 算法
深入探索机器学习中的决策树算法
深入探索机器学习中的决策树算法
46 0
|
2月前
|
机器学习/深度学习 算法 Python
机器学习入门:理解并实现K-近邻算法
机器学习入门:理解并实现K-近邻算法
43 0