【Deep Learning 4】线性回归与逻辑回归

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 🍊本文详细介绍了线性回归和逻辑回归是什么,并对二者进行了对比,此外详细介绍了sigmoid函数,最后使用Pytorch来实战模拟二者🍊实验一使用Pytorch实现线性回归🍊实验二使用Pytorch实现逻辑回归。

image.gif编辑

🍊本文详细介绍了线性回归和逻辑回归是什么,并对二者进行了对比,此外详细介绍了sigmoid函数,最后使用Pytorch来实战模拟二者

🍊实验一使用Pytorch实现线性回归

🍊实验二使用Pytorch实现逻辑回归

一、Introduction

在初学机器学习的时候,我们总会听到线性回归模型和逻辑回归模型,那么它们究竟是什么?有什么联系与区别呢?

首先他们都是一条线,目的是让我们预测的对象尽可能多的穿过这条线

线性回归模型是真的回归模型,但是逻辑回归模型虽然名字上带着回归,实际上是个分类模型,看看看下图就知道了。因为是完全属于不同类型的模型,因此他们的损失函数也是不一样的

image.gif编辑

二、Principle

2.1 线性回归模型

image.gif编辑

损失函数

image.gif编辑

2.2 逻辑回归模型

这里的σ是sigmoid函数, 分类模型是需要将最后的预测结果仿射到0-1区间中,且所有的类的预测值之和为1,因此sigmoid函数最主要的作用就是将结果尽可能的仿射到0-1区间中

image.gif编辑

损失函数

image.gif编辑

2.3 sigmoid函数

sigmoid型函数是指一类S型曲线函数,两端饱和。其中最出名的是logistic函数,因此很多地方直接将sigmoid函数默认为logistic函数。

Logistic函数公式

Logistic函数的特点是区间范围在0~1之间,而且当x等于0时,其函数值为0.5,主要用作二分类。

image.gif编辑

Tanh函数公式

Tanh函数的特点是区间范围在-1~1之间,而且当x等于0时,其函数值为0

image.gif编辑

image.gif编辑

Hard-Logistic函数和Hard-Tanh函数

image.gif编辑

三、Experiment

伪代码

1 Prepare dataset

2 Design model using Class

3 Construct loss and optimizer(Using Pytorch API)

4 Training cycle(forward,backward,update)

3.1 Linear  Regression

import torch
# 1 Prepare for the dataset
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
# Define the Model
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()  # 默认写法,一定要有
        self.linear = torch.nn.Linear(1, 1, bias=True)
        # 两个参数为输入和输出的维度,N*输入维度和N*输出维度,其模型为y=Ax+b线性模型,因此其输入输出的维度一定是一样的
        # bias为模型是否需要偏置b
    def forward(self, x):
        y_pred = self.linear(x)  #
        return y_pred
    # 这里发现没有BP,这是因为使用Model构造出来的模型会根据你的计算图来自动进行BP
model = LinearModel()
# Define the criterion and optimizer
criterion = torch.nn.MSELoss(size_average=False)  # MSELoss是将所有的平方误差相加
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 参数:第一个为所优化的模型,第二个是学习率
# Training
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
# Output weight and bias
print('w=', model.linear.weight.item())
print('b=', model.linear.bias.item())
# Test model
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred=', y_test.data)

image.gif

Result

image.gif编辑

最后预测的结果w接近2,而b接近0,这是与我们的数据集的情况相匹配的

3.2 Logistic Regression

import torch
import torchvision
import torch.nn.functional as F
import numpy as np
import matplotlib.pyplot as plt
# Prepare dataset
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])
# Define the model
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)
    def forward(self, x):
        y_pred = F.sigmoid(self.linear(x))
        return y_pred
model = LogisticRegressionModel()
# Define the criterion and optimizer
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# Training
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print('Epoch[{}/{}],loss:{:.6f}'.format(epoch, 1000, loss.item()))
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
# Drawing
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200, 1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x, y)
plt.plot([0, 10], [0.5, 0.5], c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.show()

image.gif

Result

image.gif编辑

可以看到当x等于2.5的时候,预测值刚好为0.5。这是与我们的数据集是相匹配的

参考资料

《机器学习》周志华

《深度学习与机器学习》吴恩达

《神经网络与与深度学习》邱锡鹏

《Pytorch深度学习实战》刘二大人

目录
相关文章
|
6月前
|
机器学习/深度学习 数据采集 算法
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
Machine Learning机器学习之K近邻算法(K-Nearest Neighbors,KNN)
|
4月前
|
数据可视化 Python
流形学习(Manifold Learning)是一种非线性降维方法
流形学习(Manifold Learning)是一种非线性降维方法
102 24
|
机器学习/深度学习 算法 TensorFlow
监督学习(Supervised Learning)
监督学习(Supervised Learning)是机器学习的一种主要方法,用于从标记的训练数据中学习预测模型或者决策函数。在监督学习中,我们有一组输入特征和相应的标签,目标是根据输入特征预测或分类新的未标记数据。
197 1
|
机器学习/深度学习 算法 PyTorch
【Deep Learning 2】BGD梯度下降算法
🍊本文从行人下山过程引入梯度下降法,随后详细阐述其原理,并做了两个实验更好理解🍊实验一使用Pytorch来求解函数的最小值🍊实验二使用批量梯度下降算法、和机梯度下降算法来拟合函数最佳参数。
143 0
|
机器学习/深度学习 数据可视化 PyTorch
【Deep Learning 5】FNN前馈神经网络
🍊本文详细介绍了FNN的原理,并给出了具体的推导过程🍊使用Pytorch搭建了FNN模型,并对糖尿病数据集开展分类任务实战。
993 0
|
机器学习/深度学习 人工智能 自然语言处理
【Deep Learning 8】Self-Attention自注意力神经网络
🍊本文主要介绍了Self-Attention产生的背景以及解析了具体的网络模型。
124 0
|
机器学习/深度学习 算法 Python
机器学习算法之——逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。
机器学习算法之——逻辑回归(Logistic Regression)
|
机器学习/深度学习 自然语言处理 PyTorch
【Deep Learning 6】CNN卷积神经网络
🍊文本从小女孩图片检测开始引入CNN,将其与FNN进行对比,并对CNN的原理和流程进行了详细的介绍。最后使用CNN在计算机视觉和自然语言处理领域进行实验实战🍊实验一:模拟CNN,并观察其输入、卷积层、输出的维度情况🍊实验二:使用CNN对经典Mnist手写数字图像数据集进行图像分类检测。
295 0
|
机器学习/深度学习 资源调度 算法
学习笔记: 机器学习经典算法-逻辑回归(Logistic Regression)
机器学习经典算法-个人笔记和学习心得分享
158 0
|
机器学习/深度学习 算法 前端开发
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林

相关实验场景

更多