Linear Model 线性模型

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Linear Model 线性模型

1、Linear Model 线性模型

B站视频教程传送门:PyTorch深度学习实践 - 线性模型

1.1 问题引入

假设学生们花了 x 小时学习PyTorch教程,并在期末考试中得到 y 分。那么,如果我学习4个小时,成绩会是多少?

监督学习:可参考 机器学习两种方法——监督学习和无监督学习(通俗理解)

1.2 选择模型

参数 w 为权重,是一个随机值,不同的 w 会导致结果的不同!如下图所示:

1.3 损失 Loss

当我们 W 从 0、1、2、… 一直取下去,观察 Loss 的变化情况:

我们发现:Loss (w=2) 均为 0 即没有损失,说明这是最理想状态(在实际情况中,往往不会达到)。

1.4 均方误差 MSE

我们习惯用 MSE(均方误差)来代替 Loss(损失值),因为其可以更为直观的表现出来:

MSE机器学习中的预测评价指标MSE、RMSE、MAE、MAPE、SMAPE

1.5 代码

import numpy as np
import matplotlib.pyplot as plt
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
def forward(x):
    return x * w
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2
w_list = []
mse_list = []
for w in np.arange(0.0, 4.1, 0.1):
    print("w=", round(w, 2))
    l_sum = 0
    for x_val, y_val in zip(x_data, y_data):
        y_pred_val = forward(x_val)
        loss_val = loss(x_val, y_val)
        l_sum += loss_val
        print('\t', round(x_val, 2), round(y_val, 2), round(y_pred_val, 2), round(loss_val, 2))
    print('MSE=', l_sum / 3)
    w_list.append(w)
    mse_list.append(l_sum / 3)
plt.plot(w_list, mse_list)
plt.ylabel('MSE')
plt.xlabel('W')
plt.show()
w= 0.0
   1.0 2.0 0.0 4.0
   2.0 4.0 0.0 16.0
   3.0 6.0 0.0 36.0
MSE= 18.666666666666668
w= 0.1
   1.0 2.0 0.1 3.61
   2.0 4.0 0.2 14.44
   3.0 6.0 0.3 32.49
MSE= 16.846666666666668
w= 0.2
   1.0 2.0 0.2 3.24
   2.0 4.0 0.4 12.96
   3.0 6.0 0.6 29.16
MSE= 15.120000000000003
...

1.6 更换模型

在一开始,我们使用的是 y ^ = x ∗ w \hat {y} = x * wy^=xw ,如果我们想要加个截距b:即 y ^ = x ∗ w + b \hat {y} = x * w + by^=xw+b ,结果又会怎样?

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
def forward(x):
    return x * w + b
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2
mse_list = []
W = np.arange(0.0, 4.1, 0.1)
B = np.arange(-2.0, 2.1, 0.1)
[w, b] = np.meshgrid(W, B)
l_sum = 0
for x_val, y_val in zip(x_data, y_data):
    y_pred_val = forward(x_val)
    print(y_pred_val)
    loss_val = loss(x_val, y_val)
    l_sum += loss_val
fig = plt.figure()
ax = Axes3D(fig)
ax.set_xlabel("w")
ax.set_ylabel("b")
ax.text(0.2, 2, 43, "Cost Value")
surf = ax.plot_surface(w, b, l_sum / 3, cmap=plt.get_cmap('rainbow'))
fig.colorbar(surf, shrink=0.5, aspect=5)
plt.show()
[[-2.  -1.9 -1.8 ...  1.8  1.9  2. ]
 [-1.9 -1.8 -1.7 ...  1.9  2.   2.1]
 [-1.8 -1.7 -1.6 ...  2.   2.1  2.2]
 ...
 [ 1.8  1.9  2.  ...  5.6  5.7  5.8]
 [ 1.9  2.   2.1 ...  5.7  5.8  5.9]
 [ 2.   2.1  2.2 ...  5.8  5.9  6. ]]
[[-2.  -1.8 -1.6 ...  5.6  5.8  6. ]
 [-1.9 -1.7 -1.5 ...  5.7  5.9  6.1]
 [-1.8 -1.6 -1.4 ...  5.8  6.   6.2]
 ...
 [ 1.8  2.   2.2 ...  9.4  9.6  9.8]
 [ 1.9  2.1  2.3 ...  9.5  9.7  9.9]
 [ 2.   2.2  2.4 ...  9.6  9.8 10. ]]
[[-2.  -1.7 -1.4 ...  9.4  9.7 10. ]
 [-1.9 -1.6 -1.3 ...  9.5  9.8 10.1]
 [-1.8 -1.5 -1.2 ...  9.6  9.9 10.2]
 ...
 [ 1.8  2.1  2.4 ... 13.2 13.5 13.8]
 [ 1.9  2.2  2.5 ... 13.3 13.6 13.9]
 [ 2.   2.3  2.6 ... 13.4 13.7 14. ]]

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
目录
相关文章
|
自然语言处理 算法 TensorFlow
隐马尔可夫模型(Hidden Markov Model
隐马尔可夫模型(Hidden Markov Model,简称 HMM)是一种统计模型,用于描述含有隐含未知参数的马尔可夫过程。它主要用于时序数据的建模和分析,能够捕捉到数据中的潜在结构和规律。HMM 模型由三个主要组成部分构成:状态转移概率、观测概率和初始状态概率。
121 3
|
7月前
Ridge,Lasso,Elasticnet回归
这篇文章探讨了多元线性回归与正则化的结合,包括Ridge、Lasso和Elasticnet回归。Ridge回归通过添加L2惩罚项提高模型鲁棒性,但可能牺牲一些准确性。Lasso回归引入L1范数,对异常值更敏感,能进行特征选择。Elasticnet结合L1和L2范数,允许在正则化中平衡两者。通过调整α和l1_ratio参数,可以控制整体正则化强度和正则化类型的比例。
73 0
|
机器学习/深度学习 算法 PyTorch
Softmax回归(Softmax Regression)
Softmax回归(Softmax Regression),也称为多类别逻辑回归或多项式回归,是一种用于解决多类别分类问题的统计学习方法。它是逻辑回归在多类别情况下的扩展。
277 3
|
机器学习/深度学习 算法 PyTorch
Linear Regression with PyTorch 用PyTorch实现线性回归
Linear Regression with PyTorch 用PyTorch实现线性回归
129 0
|
机器学习/深度学习 数据挖掘 PyTorch
Softmax Classifier 多分类问题
Softmax Classifier 多分类问题
114 0
|
机器学习/深度学习 算法
线性回归(Linear regression)算法
属于有监督学习、判别模型、有预测函数、有优化目标,有优化求解算法
304 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch实现基本的logistic和softmax回归实验(手动+torch)
pytorch实现基本的logistic和softmax回归实验(手动+torch)
329 0
criterion = torch.nn.MSELoss() ;loss = criterion(y_pred.squeeze(), Y_train.squeeze()) 其中loss.item()的结果是指当前批次所有样本的mse总和还是平均值?
loss.item()的结果是当前批次所有样本的均方误差(MSE)值,而不是总和。这是因为torch.nn.MSELoss()默认返回的是每个样本的MSE值之和,并且在计算总体损失时通常会将其除以样本数量来得到平均损失。 在代码中,loss = criterion(y_pred.squeeze(), Y_train.squeeze())语句计算了y_pred和Y_train之间的MSE损失,然后通过调用item()方法获取了该批次训练样本的平均MSE损失。如果希望获取该批次训练样本的总MSE损失,可以使用loss.item() * batch_size来计算,其中batch_size是该批次
393 0
【线性回归】| Linear Regression实现示例
【线性回归】| Linear Regression实现示例
111 0
【线性回归】| Linear Regression实现示例
|
机器学习/深度学习 算法框架/工具
Keras之DNN:基于Keras(sigmoid+linear+mse+predict)利用DNN实现回归预测——DIY多分类数据集&预测新数据点
Keras之DNN:基于Keras(sigmoid+linear+mse+predict)利用DNN实现回归预测——DIY多分类数据集&预测新数据点
Keras之DNN:基于Keras(sigmoid+linear+mse+predict)利用DNN实现回归预测——DIY多分类数据集&预测新数据点