Dropout的深入理解(基础介绍、模型描述、原理深入、代码实现以及变种)

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
简介: Dropout的深入理解(基础介绍、模型描述、原理深入、代码实现以及变种)

前言


深度神经网络包含多个非线性隐藏层,这使得它们有强大的表现力,可以学习输入和输出之间非常复杂的关系。但是在训练数据有限的情况下,深度神经网络很容易过度学习造成过拟合,过拟合是深度神经网络的一个非常严重的问题,此外,神经网络越大,训练速度越慢,Dropout可以通过在训练神经网络期间随机丢弃单元来防止过拟合,实验证明Dropout有很好的效果。


一、DropOut简介


1-1、DropOut论文图解


左图:拥有两层隐藏层的正常神经网络。

右图:应用Dropout后的神经网络。(来源于官方论文)



322324e9b7a0485b838b6376cb44aae1.png


1-2、DropOut介绍


DropOut:正常神经网络需要对每一个节点进行学习,而添加了DropOut的神经网络通过删除部分单元(随机),即暂时将其从网络中移除,以及它的所有传入和传出连接。将DropOut应用于神经网络相当于从神经网络中采样了一个“更薄的”网络,即单元个数较少。(如上图所示,DropOut是从左图采样了一个更薄的网络,如图右)在正反向传播的过程中,采样了多个稀薄网络,即Dropout可以解释为模型平均的一种形式。


1-3、DropOut产生动机


产生DropOut的动机:使用DropOut训练的神经网络中的每个隐藏单元必须学会与随机选择的其他单元样本一起工作,这样会使得每个隐藏单元更加的健壮,并使得他们尽量自己可以创造有用的功能,而不是依赖其他隐藏单元。即按照论文的话来说:减少神经元之间复杂的共适应关系。


官方论文例子: 50个人,分十个组,每五个人完成一个小阴谋,可能比50个人正确扮演各自角色完成一个大的阴谋更容易,当然,在时间足够,各种条件没有改变的情况下,那么完成一个大阴谋是更适合的,但生活总是充满变数,大阴谋往往不太容易实现,这样小的阴谋发挥作用的机会就会更大。同样的,在训练集上,各个隐藏单元可以协同发挥作用,即可以在训练集上可以训练的很好,但是这并不是我们需要的,我们需要他们在新的测试集上可以很好的合作,这时候DropOut体现出了它的价值!


本质上看: DropOut通过使其它隐藏层神经网络单元不可靠从而阻止了共适应的发生。因此,一个隐藏层神经元不能依赖其它特定神经元去纠正其错误。因为dropout程序导致两个神经元不一定每次都在一个dropout网络中出现。这样权值的更新不再依赖于有固定关系的隐含节点的共同作用,阻止了某些特征仅仅在其它特定特征下才有效果的情况 。迫使网络去学习更加鲁棒的特征 ,这些特征在其它的神经元的随机子集中也存在。


1-4、DropOut流程简介


简介: 在神经网络的训练过程中,对于一次迭代中的某一层神经网络,先随机选择其中的一些神经元并将其临时丢弃,然后再进行本次的训练和优化。在下一次迭代中,继续随机隐藏一些神经元,直至训练结束。由于是随机丢弃,故而每一个批次都在训练不同的网络。

详细流程:


首先随机(临时)删掉网络中一半的隐藏神经元(以dropout rate为0.5为例),输入输出神经元保持不变。


d2bdfe23bdf9428ebff191203978bf07.png



然后把输入x 通过修改后的网络前向传播,然后把得到的损失结果通过修改的网络反向传播。一小批(这里的批次batch_size由自己设定)训练样本执行完这个过程后,在没有被删除的神经元上按照随机梯度下降法更新对应的参数(w,b)

重复以下过程:

1、恢复被删掉的神经元(此时被删除的神经元保持原样,而没有被删除的神经元已经有所更新),因此每一个mini- batch都在训练不同的网络。

2、从隐藏层神经元中随机选择一个一半大小的子集临时删除掉(备份被删除神经元的参数)。

3、对一小批训练样本,先前向传播然后反向传播损失并根据随机梯度下降法更新参数(w,b) (没有被删除的那一部分参数得到更新,删除的神经元参数保持被删除前的结果)。


二、模型描述


2-1、公式描述


前提:带有L层隐藏层的神经网络。

l:第几层。

z: 代表输入向量

y: 代表输出向量

W:代表权重

b:偏差

f: 激活函数


没有DropOut的神经网络前向传播计算公式可以被描述为:l+1层的输入向量是l+1的权重乘以l层的输出向量加l+1层的偏差。l+1层的输出向量为经过激活函数的l+1层的输入向量。


image.png

添加DropOut的神经网络前向传播计算公式可以被描述为:相比于之前输出向量经过了伯努利分布,类似于经过一个门筛选了一下。*代表的是点积。


image.png

2-2、神经网络图描述


神经网络图示如下所示:左图为标准的神经网络,右图为添加了Dropout的神经网络,相比于标准的神经网络,添加了Dropout的神经网络相当于为前一层的输出向量添加了一道概率流程,即是否经过筛选。

3ea4f04f9f984fee815dd1f279031be7.png


2-3、一些需要注意的问题!


注意

  • 在测试中,权重参数w被缩放


image.png


训练的过程中,会停止训练一些神经元,但是在测试的时候,整个模型是完整的,为了解决这个问题,我们会对没有被dropout的神经元权值做一个rescale,举个栗子:dropout rate为0.5,经过该算式之后rescale rate比例为2,即翻倍,这在一定程度上弥补了删掉一些神经元带来的误差。


image.png


拓展延伸:如果不想测试阶段缩放权重,可以选择在训练阶段缩放激活函数,即反向Dropout,这样的话在测试阶段可以保持网络不变。所以我们换一个思路,在训练时候将剩余权重乘以1/(1-p),在测试时,就不需要做什么了。


三、Dropout代码实现以及相关变种(部分有实现)

3-1、Dropout实现(Torch实现)

import torch
# 定义dropout
def dropout_test(x, dropout):
    """
  :param x: input tensor
  :param dropout: probability for dropout
  :return: a tensor with masked by dropout
  """
    # dropout must be between 0 and 1
    # 判断dropout是不是在0到1之间,如果不是的话直接抛出异常。
    assert 0 <= dropout <= 1
    # if dropout is equal to 0;just return self_x
    # 如果dropout为0,则返回原式
    if dropout == 0:
        return x
    # if dropout is equal to 1: put all values to zeros in tensor x
    # 如果dropout为1,则返回和输入形状相同的全0矩阵。
    if dropout == 1:
        return torch.zeros_like(x)
    # torch.rand is for return a tensor filled with values from uniform distribution [0,1)
    # we compare the values with dropout,if values is greater than dropout ,return 1,else 0
    # 生成一个mask矩阵,用来使一部分数据为0。
    mask = (torch.rand(x.shape) > dropout).float()
    # mask times x and give the scale(1-dropout) for the same expectation with before
    # 使用mask来遮掉部分数据,并且缩放剩余权重。
    return mask * x / (1.0 - dropout)
if __name__ == '__main__':
    # dropout_test
    input = torch.rand(3, 4)
    dropout = 0.8
    output = dropout_test(input, dropout)
    print(f"input={input}")
    print(f"output={output}")


输出:

input=tensor([[0.9379, 0.6264, 0.2145, 0.8403],
[0.6710, 0.7660, 0.0424, 0.2627],
[0.5760, 0.1775, 0.3744, 0.3073]])

output=tensor([[0.0000, 0.0000, 0.0000, 0.0000],
[0.0000, 0.0000, 0.2121, 0.0000],
[0.0000, 0.8876, 0.0000, 0.0000]])


3-2、Dropout实现(Numpy实现,训练集乘以1/(1-p),测试集不做变化)


a9c9a75e5e214c95a2c95c377b9bef9a.png

import numpy as np
def another_train(rate, x, w1, b1, w2, b2):
  layer1 = np.maximum(0, (np.dot(x, w1) + b1))
  mask1 = np.random.binomial(1, 1.0 - rate, layer1.shape)
  layer1 = layer1 * mask1
  layer1 = layer1 / (1.0 - rate)
  layer2 = np.maximum(0, (np.dot(layer1, w2) + b2))
  mask2 = np.random.binomial(1, 1.0 - rate, layer2.shape)
  layer2 = layer2 * mask2
  layer2 = layer2 / (1.0 - rate)
  return layer2
def another_test(x, w1, b1, w2, b2):
  layer1 = np.maximum(0, np.dot(x, w1) + b1)
  layer2 = np.maximum(0, np.dot(layer1, w2) + b2)
  return layer2


3-3、Dropout实现(Numpy实现,测试集变化)


a9a9451c6bc24023b227e15f93169e1e.png


import numpy as np
def train(rate, x, w1, b1, w2, b2):
  """
  description:
  if the train cannot use scale(1/(1-rate)) for output;
  then we need mutiply by (1.0-rate) for keeping the same expectation
  :param rate: probability of dropout
  :param x: input tensor
  :param w1: weight_1 of layer1
  :param b1: bias_1 of layer1
  :param w2: weight_2 of layer2
  :param b2: bias_2 of layer2
  :return: layer2
  """
  layer1 = np.maximum(0, (np.dot(x, w1) + b1))
  mask1 = np.random.binomial(1, 1.0 - rate, layer1.shape)
  layer1 = layer1 * mask1
  layer2 = np.maximum(0, (np.dot(layer1, w2) + b2))
  mask2 = np.random.binomial(1, 1.0 - rate, layer2.shape)
  layer2 = layer2 * mask2
  return layer2
def test(rate, x, w1, b1, w2, b2):
  layer1 = np.maximum(0, np.dot(x, w1) + b1)
  layer1 = layer1 * (1.0 - rate)
  layer2 = np.maximum(0, np.dot(layer1, w2) + b2)
  layer2 = layer2 * (1.0 - rate)
  return layer2


3-4、Dropout实现(复写一个类似于Pytorch中的Dropout)

# nn.Module,继承自nn.Module。
class Dropout(nn.Module):
    def __init__(self, p=0.5):
        super(Dropout, self).__init__()
        if p <= 0 or p >= 1:
            raise Exception("p value should accomplish 0 < p < 1")
        self.p = p
        self.kp = 1 - p
    def forward(self, x):
        if self.training:
          # 生成mask矩阵。
          # torch.rand_like:生成和x相同尺寸的张量,取值在[0,1)之间均匀分布。
            mask = (torch.rand_like(x) < self.kp)
            # 先用mask矩阵对x矩阵进行处理,再除以1 - p(保留概率),即上述所说的反向DropOut操作,不需要在测试集上再缩放。
            return x * mask / self.kp
        else:
            return x


3-5、高斯Dropout

高斯Dropout: 在高斯Dropout中,每个节点可以看做乘以了p(1-p) ,所有节点都参与训练。

class GaussianDropout(nn.Module):
    def __init__(self, p=0.5):
        super(GaussianDropout, self).__init__()
        if p <= 0 or p >= 1:
            raise Exception("p value should accomplish 0 < p < 1")
        self.p = p
    def forward(self, x):
        if self.training:
          # 式子算起来有些许区别。
            stddev = (self.p / (1.0 - self.p))**0.5
            epsilon = torch.randn_like(x) * stddev
            return x * epsilon
        else:
            return x



3-6、DropConnect

本质: 不直接在神经元上应用dropout,而是应用在连接这些神经元的权重和偏置上。


c2b0e4b489f1458eb85c3229358c499a.png


3-7、Standout

本质:神经元被遗漏的概率p在这一层并不是固定的,根据权重的值,它是自适应的。


0640e41d5c954b3d9a09efb2a829737d.png

附录1、nn.Linear()详解


nn.Linear():用于设置网络中的全连接层。

参数:


in_features:输入的二维张量的大小,即输入的[batch_size, size]中的size。例如Mnist数据集中,输入维度为[batch, 1, 28, 28],则size为12828,即真实输入我们首先需要转化为二维张量[batch, 12828],之后再输入。

out_features:输出二维张量的大小,输出二维张量的形状为[batch_size, output_size]。


总结:相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。


import torch as t
from torch import nn
# in_features由输入张量的形状决定,out_features则决定了输出张量的形状 
connected_layer = nn.Linear(in_features = 3*64*64, out_features = 1)
# 假定输入的图像形状为[3,64,64]
input = t.randn(1,3,64,64)
# 将四维张量转换为二维张量之后,才能作为全连接层的输入
input = input.view(1,3*64*64)
print(input.shape)
output = connected_layer(input) # 调用全连接层
print(output.shape)


输出:

torch.Size([1, 12288])

torch.Size([1, 1])

参考文章:

Dropout详解.

一文看尽12种Dropout及其变体.

dropout代码实现 学习笔记.

Dropout、高斯Dropout、均匀分布Dropout(Uout).

15 - Dropout的原理及其在TF/PyTorch/Numpy的源码实现.

伯努利分布——百度百科.

理解dropout.

CNN 入门讲解:什么是dropout?.

Dropout作用原理.

Dropout原理与实现.

PyTorch的nn.Linear()详解.


总结


我从没有见过极光出现的村落,也没有见过有人,在深夜放烟火。

相关文章
|
7月前
|
机器学习/深度学习 关系型数据库 MySQL
大模型中常用的注意力机制GQA详解以及Pytorch代码实现
GQA是一种结合MQA和MHA优点的注意力机制,旨在保持MQA的速度并提供MHA的精度。它将查询头分成组,每组共享键和值。通过Pytorch和einops库,可以简洁实现这一概念。GQA在保持高效性的同时接近MHA的性能,是高负载系统优化的有力工具。相关论文和非官方Pytorch实现可进一步探究。
861 4
|
7月前
|
机器学习/深度学习 自然语言处理 并行计算
Self-Attention 原理与代码实现
Self-Attention 原理与代码实现
318 0
|
7月前
|
机器学习/深度学习 Java 网络架构
YOLOv5改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
YOLOv5改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
350 0
|
机器学习/深度学习 计算机视觉
用实验数据验证面试题:VGG使用3x3卷积核的优势
用实验数据验证面试题:VGG使用3x3卷积核的优势
475 0
用实验数据验证面试题:VGG使用3x3卷积核的优势
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
CNN中的注意力机制综合指南:从理论到Pytorch代码实现
注意力机制已成为深度学习模型的关键组件,尤其在卷积神经网络(CNN)中发挥了重要作用。通过使模型关注输入数据中最相关的部分,注意力机制显著提升了CNN在图像分类、目标检测和语义分割等任务中的表现。本文将详细介绍CNN中的注意力机制,包括其基本概念、不同类型(如通道注意力、空间注意力和混合注意力)以及实际实现方法。此外,还将探讨注意力机制在多个计算机视觉任务中的应用效果及其面临的挑战。无论是图像分类还是医学图像分析,注意力机制都能显著提升模型性能,并在不断发展的深度学习领域中扮演重要角色。
106 10
|
5月前
|
机器学习/深度学习 存储 测试技术
【YOLOv10改进-注意力机制】iRMB: 倒置残差移动块 (论文笔记+引入代码)
YOLOv10专栏介绍了融合CNN与Transformer的iRMB模块,用于轻量级模型设计。iRMB在保持高效的同时结合了局部和全局信息处理,减少了资源消耗,提升了移动端性能。在ImageNet等基准上超越SOTA,且在目标检测等任务中表现优秀。代码示例展示了iRMB的实现细节,包括自注意力机制和卷积操作的整合。更多配置信息见相关链接。
|
7月前
|
计算机视觉
【YOLOv8改进】 AFPN :渐进特征金字塔网络 (论文笔记+引入代码).md
YOLO目标检测专栏介绍了YOLO的有效改进和实战案例,包括AFPN——一种解决特征金字塔网络信息丢失问题的新方法。AFPN通过非相邻层直接融合和自适应空间融合处理多尺度特征,提高检测性能。此外,还展示了YOLOv8中引入的MPDIoU和ASFF模块的代码实现。详情可参考提供的专栏链接。
|
7月前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8改进 | 注意力机制 | 添加双重注意力机制 DoubleAttention【附完整代码+小白必备】
在这个教程中,作者介绍了如何在YOLOv8图像识别模型中集成DoubleAttention模块,以提升模型捕捉长距离关系的效率。DoubleAttention通过全局和局部注意力模块捕获图像的全局和局部信息。教程详细阐述了DoubleAttention的工作原理,并提供了相应的代码实现。读者将学习到如何在YOLOv8的网络结构中添加这一组件,并给出了完整的代码示例。此外,还分享了GFLOPs的计算,以及鼓励读者尝试在不同位置添加注意力机制作为进阶练习。完整代码和更多详情可在提供的链接中获取。
|
7月前
|
机器学习/深度学习 自然语言处理 PyTorch
Vision Transformers的注意力层概念解释和代码实现
2017年推出《Attention is All You Need》以来,transformers 已经成为自然语言处理(NLP)的最新技术。2021年,《An Image is Worth 16x16 Words》,成功地将transformers 用于计算机视觉任务。从那时起,许多基于transformers的计算机视觉体系结构被提出。
62 0
|
7月前
|
机器学习/深度学习 Java 网络架构
YOLOv8改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
YOLOv8改进 | TripletAttention三重注意力机制(附代码+机制原理+添加教程)
987 0

热门文章

最新文章