循环神经网络

简介: 循环神经网络

继神经网络之后咱们再来看看循环神经网络

循环神经网络


目标


  1. 能够说出循环神经网络的概念和作用
  2. 能够说出循环神经网络的类型和应用场景
  3. 能够说出LSTM的作用和原理
  4. 能够说出GRU的作用和原理


1. 循环神经网络的介绍


为什么有了神经网络还需要有循环神经网络?


在普通的神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力。特别是在很多现实任务中,网络的输出不仅和当前时刻的输入相关,也和其过去一段时间的输出相关。此外,普通网络难以处理时序数据,比如视频、语音、文本等,时序数据的长度一般是不固定的,而前馈神经网络要求输入和输出的维数都是固定的,不能任意改变。因此,当处理这一类和时序相关的问题时,就需要一种能力更强的模型。


循环神经网络(Recurrent Neural Network,RNN)是一类具有短期记忆能力的神经网络。在循环神经网络中,神经元不但可以接受其它神经元的信息,也可以接受自身的信息,形成具有环路的网络结构。换句话说:神经元的输出可以在下一个时间步直接作用到自身


95e18167e3f0407e9e07cf98a647be9c.png


通过简化图,我们看到RNN比传统的神经网络多了一个循环圈,这个循环表示的就是在下一个时间步(Time Step)上会返回作为输入的一部分,我们把RNN在时间点上展开,得到的图形如下:


2410cec4ce2a4d6cb1e9938c641faf0f.png


或者是:


7c19bc1d26404c5d97981eafe97ab444.png

在不同的时间步,RNN的输入都将与之前的时间状态有关,tn时刻网络的输出结果是该时刻的输入和所有历史共同作用的结果,这就达到了对时间序列建模的目的。


RNN的不同表示和功能可以通过下图看出:


da7d720df7084181aba0f3b047888777.png


图1:固定长度的输入和输出 (e.g. 图像分类)

图2:序列输出 (e.g.图像转文字)

图3:数列输入 (e.g. 文本分类)

图4:异步的序列输入和输出(e.g.文本翻译).

图5:同步的序列输入和输出 (e.g. 根据视频的每一帧来对视频进行分类)


2. LSTM和GRU


2.1 LSTM的基础介绍


假如现在有这样一个需求,根据现有文本预测下一个词语,比如天上的云朵漂浮在__,通过间隔不远的位置就可以预测出来词语是天上,但是对于其他一些句子,可能需要被预测的词语在前100个词语之前,那么此时由于间隔非常大,随着间隔的增加可能会导致真实的预测值对结果的影响变的非常小,而无法非常好的进行预测(RNN中的长期依赖问题(long-Term Dependencies))


那么为了解决这个问题需要LSTM(Long Short-Term Memory网络)


LSTM是一种RNN特殊的类型,可以学习长期依赖信息。在很多问题上,LSTM都取得相当巨大的成功,并得到了广泛的应用。


一个LSMT的单元就是下图中的一个绿色方框中的内容:


3.png


其中σ表示sigmod函数,其他符号的含义:

5.jpeg


2.2 LSTM的核心



4.png


LSTM的核心在于单元(细胞)中的状态,也就是上图中最上面的那根线。


但是如果只有上面那一条线,那么没有办法实现信息的增加或者删除,所以在LSTM是通过一个叫做门的结构实现,门可以选择让信息通过或者不通过。


这个门主要是通过sigmoid和点乘(pointwise multiplication)实现的


6.png


我们都知道,sigmoid的取值范围是在(0,1)之间,如果接近0表示不让任何信息通过,如果接近1表示所有的信息都会通过


2.3 逐步理解LSTM


2.3.1 遗忘门


遗忘门通过sigmoid函数来决定哪些信息会被遗忘


在下图就是h t − 1 和 xt进行合并(concat)之后乘上权重和偏置,通过sigmoid函数,输出0-1之间的一个值,这个值会和前一次的细胞状态(C t−1 )进行点乘,从而决定遗忘或者保留


7.png


2.3.2 输入门


8.png

下一步就是决定哪些新的信息会被保留,这个过程有两步:

image.png

例如:


我昨天吃了苹果,今天我想吃菠萝,在这个句子中,通过遗忘门可以遗忘苹果,同时更新新的主语为菠萝


现在就可以更新旧的细胞状态C t−1为新的Ct了。


更新的构成很简单就是:


  1. 旧的细胞状态和遗忘门的结果相乘
  2. 然后加上 输入门和tanh相乘的结果



2.3.3 输出门


最后,我们需要决定什么信息会被输出,也是一样这个输出经过变换之后会通过sigmoid函数的结果来决定那些细胞状态会被输出。


10.png


步骤如下:


  1. 前一次的输出和当前时间步的输入的组合结果通过sigmoid函数进行处理得到Ot
  2. 更新后的细胞状态Ct会经过tanh层的处理,把数据转化到(-1,1)的区间
  3. tanh处理后的结果和Ot进行相乘,把结果输出同时传到下一个LSTM的单元


2.4 GRU,LSTM的变形


GRU(Gated Recurrent Unit),是一种LSTM的变形版本, 它将遗忘和输入门组合成一个“更新门”。它还合并了单元状态和隐藏状态,并进行了一些其他更改,由于他的模型比标准LSTM模型简单,所以越来越受欢迎。


9.png


LSTM内容参考地址:https://colah.github.io/posts/2015-08-Understanding-LSTMs/


3. 双向LSTM


单向的 RNN,是根据前面的信息推出后面的,但有时候只看前面的词是不够的, 可能需要预测的词语和后面的内容也相关,那么此时需要一种机制,能够让模型不仅能够从前往后的具有记忆,还需要从后往前需要记忆。此时双向LSTM就可以帮助我们解决这个问题


0cfa7e06765a4b898ab5c94220acc9e9.png


由于是双向LSTM,所以每个方向的LSTM都会有一个输出,最终的输出会有2部分,所以往往需要concat的操作


目录
相关文章
|
4月前
|
机器学习/深度学习 自然语言处理 算法
RNN-循环神经网络
自然语言处理(Nature language Processing, NLP)研究的主要是通过计算机算法来理解自然语言。对于自然语言来说,处理的数据主要就是人类的语言,我们在进行文本数据处理时,需要将文本进行数据值化,然后进行后续的训练工作。
|
3月前
|
机器学习/深度学习 数据采集 人工智能
循环神经网络RNN
7月更文挑战第2天
73 11
|
4月前
|
机器学习/深度学习 存储 自然语言处理
RNN与LSTM:循环神经网络的深入理解
【6月更文挑战第14天】本文深入探讨RNN和LSTM,两种关键的深度学习模型在处理序列数据时的作用。RNN利用记忆单元捕捉时间依赖性,但面临梯度消失和爆炸问题。为解决此问题,LSTM引入门控机制,有效捕获长期依赖,适用于长序列处理。RNN与LSTM相互关联,LSTM可视为RNN的优化版本。两者在NLP、语音识别等领域有广泛影响,未来潜力无限。
|
5月前
|
机器学习/深度学习 自然语言处理 语音技术
循环神经网络
循环神经网络
33 1
|
5月前
|
机器学习/深度学习
深度学习第2天:RNN循环神经网络
深度学习第2天:RNN循环神经网络
|
5月前
|
机器学习/深度学习 算法 PyTorch
简单讲解CNN(卷积神经网络)
简单讲解CNN(卷积神经网络)
52 1
|
5月前
|
机器学习/深度学习 自然语言处理 数据处理
一文带你了解RNN循环神经网络
一文带你了解RNN循环神经网络
281 1
|
11月前
|
机器学习/深度学习 算法 异构计算
卷积神经网络(CNN)
卷积神经网络(CNN)
114 0
卷积神经网络(CNN)
|
机器学习/深度学习 自然语言处理 算法
深入了解卷积神经网络(CNN)
卷积神经网络是一种受到生物视觉系统启发而设计的人工神经网络。它在计算机视觉和图像处理领域取得了巨大的成功,并成为许多深度学习模型的基础。
74 1
|
机器学习/深度学习 数据采集
将循环神经网络(RNN)
将循环神经网络(RNN)应用于现实世界数据进行时间序列预测,是一种常见的机器学习应用。时间序列预测是一种预测未来值的方法,它基于过去和现在的数据点。这种预测方法被广泛应用于金融、气象、工业生产等领域。以下是使用 RNN 进行时间序列预测的基本步骤:
61 3

相关实验场景

更多