【Deep Learning 4】线性回归与逻辑回归

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: 🍊本文详细介绍了线性回归和逻辑回归是什么,并对二者进行了对比,此外详细介绍了sigmoid函数,最后使用Pytorch来实战模拟二者🍊实验一使用Pytorch实现线性回归🍊实验二使用Pytorch实现逻辑回归。

image.gif编辑

🍊本文详细介绍了线性回归和逻辑回归是什么,并对二者进行了对比,此外详细介绍了sigmoid函数,最后使用Pytorch来实战模拟二者

🍊实验一使用Pytorch实现线性回归

🍊实验二使用Pytorch实现逻辑回归

一、Introduction

在初学机器学习的时候,我们总会听到线性回归模型和逻辑回归模型,那么它们究竟是什么?有什么联系与区别呢?

首先他们都是一条线,目的是让我们预测的对象尽可能多的穿过这条线

线性回归模型是真的回归模型,但是逻辑回归模型虽然名字上带着回归,实际上是个分类模型,看看看下图就知道了。因为是完全属于不同类型的模型,因此他们的损失函数也是不一样的

image.gif编辑

二、Principle

2.1 线性回归模型

image.gif编辑

损失函数

image.gif编辑

2.2 逻辑回归模型

这里的σ是sigmoid函数, 分类模型是需要将最后的预测结果仿射到0-1区间中,且所有的类的预测值之和为1,因此sigmoid函数最主要的作用就是将结果尽可能的仿射到0-1区间中

image.gif编辑

损失函数

image.gif编辑

2.3 sigmoid函数

sigmoid型函数是指一类S型曲线函数,两端饱和。其中最出名的是logistic函数,因此很多地方直接将sigmoid函数默认为logistic函数。

Logistic函数公式

Logistic函数的特点是区间范围在0~1之间,而且当x等于0时,其函数值为0.5,主要用作二分类。

image.gif编辑

Tanh函数公式

Tanh函数的特点是区间范围在-1~1之间,而且当x等于0时,其函数值为0

image.gif编辑

image.gif编辑

Hard-Logistic函数和Hard-Tanh函数

image.gif编辑

三、Experiment

伪代码

1 Prepare dataset

2 Design model using Class

3 Construct loss and optimizer(Using Pytorch API)

4 Training cycle(forward,backward,update)

3.1 Linear  Regression

import torch
# 1 Prepare for the dataset
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
# Define the Model
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()  # 默认写法,一定要有
        self.linear = torch.nn.Linear(1, 1, bias=True)
        # 两个参数为输入和输出的维度,N*输入维度和N*输出维度,其模型为y=Ax+b线性模型,因此其输入输出的维度一定是一样的
        # bias为模型是否需要偏置b
    def forward(self, x):
        y_pred = self.linear(x)  #
        return y_pred
    # 这里发现没有BP,这是因为使用Model构造出来的模型会根据你的计算图来自动进行BP
model = LinearModel()
# Define the criterion and optimizer
criterion = torch.nn.MSELoss(size_average=False)  # MSELoss是将所有的平方误差相加
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 参数:第一个为所优化的模型,第二个是学习率
# Training
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
# Output weight and bias
print('w=', model.linear.weight.item())
print('b=', model.linear.bias.item())
# Test model
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred=', y_test.data)

image.gif

Result

image.gif编辑

最后预测的结果w接近2,而b接近0,这是与我们的数据集的情况相匹配的

3.2 Logistic Regression

import torch
import torchvision
import torch.nn.functional as F
import numpy as np
import matplotlib.pyplot as plt
# Prepare dataset
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])
# Define the model
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)
    def forward(self, x):
        y_pred = F.sigmoid(self.linear(x))
        return y_pred
model = LogisticRegressionModel()
# Define the criterion and optimizer
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# Training
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print('Epoch[{}/{}],loss:{:.6f}'.format(epoch, 1000, loss.item()))
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
# Drawing
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200, 1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x, y)
plt.plot([0, 10], [0.5, 0.5], c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.show()

image.gif

Result

image.gif编辑

可以看到当x等于2.5的时候,预测值刚好为0.5。这是与我们的数据集是相匹配的

参考资料

《机器学习》周志华

《深度学习与机器学习》吴恩达

《神经网络与与深度学习》邱锡鹏

《Pytorch深度学习实战》刘二大人

目录
相关文章
|
3月前
|
机器学习/深度学习 自然语言处理 语音技术
什么是 Supervised learning(监督学习)
什么是 Supervised learning(监督学习)
45 0
|
1月前
|
机器学习/深度学习 数据采集 算法
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
|
9月前
|
机器学习/深度学习 算法 TensorFlow
监督学习(Supervised Learning)
监督学习(Supervised Learning)是机器学习的一种主要方法,用于从标记的训练数据中学习预测模型或者决策函数。在监督学习中,我们有一组输入特征和相应的标签,目标是根据输入特征预测或分类新的未标记数据。
128 1
|
9月前
|
机器学习/深度学习 Web App开发 算法
强化学习(Reinforcement Learning)
强化学习(Reinforcement Learning)是机器学习的一个分支,旨在让智能体(agent)通过与环境的交互学习如何做出决策以最大化累积奖励。在强化学习中,智能体通过试错的方式与环境进行交互,并根据环境的反馈(奖励或惩罚)调整自己的行为。
132 2
|
11月前
|
机器学习/深度学习 算法 PyTorch
【Deep Learning 2】BGD梯度下降算法
🍊本文从行人下山过程引入梯度下降法,随后详细阐述其原理,并做了两个实验更好理解🍊实验一使用Pytorch来求解函数的最小值🍊实验二使用批量梯度下降算法、和机梯度下降算法来拟合函数最佳参数。
115 0
|
11月前
|
机器学习/深度学习 数据可视化 PyTorch
【Deep Learning 5】FNN前馈神经网络
🍊本文详细介绍了FNN的原理,并给出了具体的推导过程🍊使用Pytorch搭建了FNN模型,并对糖尿病数据集开展分类任务实战。
298 0
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
【Deep Learning 8】Self-Attention自注意力神经网络
🍊本文主要介绍了Self-Attention产生的背景以及解析了具体的网络模型。
87 0
|
11月前
|
机器学习/深度学习 自然语言处理 PyTorch
【Deep Learning 6】CNN卷积神经网络
🍊文本从小女孩图片检测开始引入CNN,将其与FNN进行对比,并对CNN的原理和流程进行了详细的介绍。最后使用CNN在计算机视觉和自然语言处理领域进行实验实战🍊实验一:模拟CNN,并观察其输入、卷积层、输出的维度情况🍊实验二:使用CNN对经典Mnist手写数字图像数据集进行图像分类检测。
244 0
|
11月前
|
机器学习/深度学习 存储 算法
【Deep Learning 7】RNN循环神经网络
🍊本文旨在以一种通俗易懂的方式来介绍RNN,本文从天气预报开始引入RNN,随后对RNN进行详细介绍,并对几种变体的LSTM、CRU、BiLSTM进行重点介绍。最后以5个实验进行实战训练 🍊实验一:Pytorch+Bert+RNN实现文本分类预测模拟 🍊实验二:Pytorch+Bert+RNN实现对IMDB影评数据集进行二分类情感分析 🍊实验三:Pytorch+Bert+GRU实现对IMDB影评数据集进行二分类情感分析 🍊实验四:Pytorch+Bert+LSTM实现对IMDB影评数据集进行二分
147 0
|
11月前
|
机器学习/深度学习 算法 PyTorch
【Deep Learning 3】BP反向传播算法
🍊本文从梯度下降算法开始介绍BP反向传播算法背景,并使用一个实际案例来模拟BP过程来讲解其原理。最后做了三个实验进行BP实战🍊实验一手撸一个y=ω*x模拟反向传播过程🍊实验二将BP应用到线性回归模型中进行参数拟合🍊实验三使用Pytorch重现实验二过程。
108 0

相关实验场景

更多