【Pytorch神经网络理论篇】 18 循环神经网络结构:LSTM结构+双向RNN结构

简介: 双向RNN会比单向RNN多一个隐藏层,6个独特的权值在每一个时步被重复利用,6个权值分别对应:输入到向前和向后隐含层,隐含层到隐含层自身,向前和向后隐含层到输出层。

同学你好!本文章于2021年末编写,获得广泛的好评!


故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现


Pytorch深度学习·理论篇(2023版)目录地址为:


CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录

本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理进行讲解与分析,通过将深度学习知识与Pytorch的高效结合,帮助各位新入门的读者理解深度学习各个模板之间的关系,这些均是在Pytorch上实现的,可以有效的结合当前各位研究生的研究方向,设计人工智能的各个领域,是经过一年时间打磨的精品专栏!

https://v9999.blog.csdn.net/article/details/127587345


欢迎大家订阅(2023版)理论篇

以下为2021版原文~~~~


a78d97493a1c44ea89a82e6ac3ca33ce.png



1 深层循环神经网络的构建


在深层网络结构中,会将简单的RNN模型从两个角度进行改造,具体如下。


1.使用更复杂的结构作为RNN模型的基本单元,使其在单层网络上提取更好的记忆特征。


2.将多个基本单元结合起来,组成不同的结构(多层RNN、双向RNN等)。有时还会配合全连接网络、卷积网络等多种模型结构,一起组成拟合能力更强的网络模型。其中,RNN模型的基本单元称为Cell,它是整个RNN的基础。


2 常见的cell结构:LSTM


长短记忆(Long Short Term Memory,LSTM)单元是一种使用了类似搭桥术结构的RNN单元。它可以学习长期序列信息,是RNN网络中最常使用的Cell之一。


2.1 了解LSTM结构


2.1.1 循环神经网络(RNNs)


通过不断将信息循环操作,保证信息持续存在,从而解决不能结合经验来理解当前问题的问题。


20200711143757938.png


从图中可看出A允许将信息不断的在内部循环,这可以使其保证每一步的计算都能保存以前的信息。


2.1.1 循环神经网络(RNNs)在长序列上的弊端


把RNNs自循环结构展开,可以看成是同一个网络复制多次并连成一条线,把自身信息传递给下一时刻的自己。


20200711144331907.png


这种链式的结构揭示了RNNs与序列和列表类型的数据密切相关。好像他们生来就是为了处理序列类型数据的。


但是在处理长依赖问题时,RNNs虽然在理论上可行,但实践发现RNNs无法实现。


2.1.3 循环神经网络中cell的LSTM结构


RNNs中有一个特殊的网络结构,叫LSTMs,全称为Long Short Term Memory networks,可翻译为长短时记忆神经网络,这个网络的设计初衷就是为了解决长依赖问题。


所有循环神经网络都具有神经网络的重复模块链的形式。


LSTMs的结构如下:


20200711145439953.png


它内部有四个网络层,这不同于标准RNN网络里只有一个网络层的单元。


20200711145829546.png


  • Neural Network Layer:激活函数操作


  • Pointwise Operation:点操作


  • Vector Transfer:数据流向


  • Concatenate:表示向量的合并(concat)操作


  • Copy:向量的拷贝


LSTMs核心是细胞状态,用贯穿细胞的水平线表示。细胞状态像传送带一样,它贯穿整个细胞却只有很少的分支,这样能保证信息不变的流过整个RNNs,细胞状态如下图所示:


20200711150606495.png


2.3 LSTM结构的门结构


LSTM网络能通过一种被称为门的结构对细胞状态进行删除或者添加信息。

门能够有选择性的决定让哪些信息通过。门的结构为一个sigmoid层和一个点乘操作的组合:


20200711150745759.png


2.3.1 忘记门


忘记门决定模型会从细胞状态中丢弃什么信息。忘记门会读取前一序列模型的输出,和当前模型的输入60bf15d1bcf54ffca71074985186bc52.png,来控制细胞状态e251761a54334e28a30ed593904b6779.png中的每个数字是否保留。


例如,在一个语言模型的例子中,假设细胞状态会包会当前主语的性别,于是根据这个状便可以选择正确的代词。当我们看到新的主语时,应该把新的主语在记忆中更新。忘记]的功能就是先去记忆中找到以前的那个旧的主语,并没有真正执行忘掉操作,只是找到而己。


20200711151353420.png


在图中,7220e2c169404d8ba770f7274293a490.png代表忘记门的输出结果,σ代表激活函数,334fcc5f4d7c4d7ea25dd8ab52542c53.png代表忘记门的权重,代表当前模型的输入,0f091da6dbfa4f1f98d6390e8313c0c8.png代表前一个序列模型的输出,74225439759b4e3ab1cf08c9c2163505.png代表忘记门的偏置。  


2.3.2 输入门


输入门其实可以分成两部分功能,一部分是找到那些需要更新的细胞状态,另一部分是把需要更新的信息更新到细胞状态里。


1、在下图1中,d7274f553eae4bacb309c073d5e55c38.png代表要更新的细胞状态,σ代表激活函数,b8f5c6e4d987424f916b7382cc9563c6.png代表当前模型的输入,82ff4f2b35034eb18b764c5b597660ad.png代表前一个序列模型的输出,9ddb63a518fb414f83d4ec9a5925e4a7.png所代表计算5ac312a0334d4594aa487cc72ec7ab5a.png的权重,671eaa7fa3984af79eafbf0426eca912.png代表计算it的偏置,1a50cf38a40146b2ac6baf91af1378a3.png代表使用tanh所创建的新细胞状态,6d78ec9563af432bb52ad55bb43e5f64.png代表计算834350719c0547808333a31dd6a9b145.png的权重,7bbcfc0a18e047f599994581d6475d16.png代表计算20dc571713e44c32885fdbf5d7fa6bb1.png的偏置。

   忘记门找到了需要忘掉的信息ft后,再将它与旧状态相乘,丢弃确定需要丢弃的信息。然后将结果加上098912b7cc0445fea29386ee7ac38014.png×392a6e45829d430a83ce707434cbf307.png使细胞状态获得新的信息。这样就完成了细胞状态的更新,如图所示。


2020071115172634.png


2、输入门更新在下图中,471c503aae504294aea2a93ffef4b5dd.png代表更新后的细胞状态,35640a86aeec418f843a619b20754b5a.png代表忘记门的输出结果,38d90b7b81484875858be014c6742025.png代表前一个序列模型的细胞状态,6b418989291e467694df4d4d3adaeea5.png代表要更新的细胞状态,0b66958db834475a8331496c51f988a2.png代表使用tanh所创建的新细胞状态。


20200711152125633.png


2.3.4 输出门


如图7-34所示,在输出中,通过一个激活函数层(实际使用的是Sigmoid激活函数)来确定哪个部分的信息将输出,接着把细胞状态通过tah进行处理(得到一个在-1~1的值),并将它和Sigmoid门的输出相乘,得出最终想要输出的那个部分,例如,在语言模型中,假设已经输入了一个代词,便会计算出需要输出一个与该代词相关的信息。


20200711152455667.png


如图上,输出门在图7-34中,ecfb829a03c74afc92cb573ad8cf4d95.png代表要输出的信息,σ代表激活函数,25ae1af96ab14228a90436f4b4bc3649.png代表计算fd99b26669f345a78c02c0887e4f6c95.png的权重,3fc4a14a2f184daa94d2adc6437f44f9.png代表计算fd99b26669f345a78c02c0887e4f6c95.png的偏置,8fd7091207c941f7a32953216f36d2c3.png代表更新后的细胞状态,04585a57d4f44a219656cab8e0783ec1.png代表当前序列模型的输出结果。


2.3 门控循环单元(GRU)


门控循环单元(Gated Recurrent Unit,GRU)是与LSTM功能几乎一样的另一个常用的网络结构,它将忘记门和输入门合成了一个单一的更新门,同时又将细胞状态和隐藏状态进行混合,以及一些其他的改动。最终的模型比标准的LSTM模型要简单。


aHR0cHM6Ly9naXRlZS5jb20va2t3ZWlzaGUvaW1hZ2VzL3Jhdy9tYXN0ZXIvTUwvMjAxOS04LTE2XzEzLTQ5LTUyLnBuZw.png


当然,基于LSTM的变体不止GRU一个,经过测试发现,这些搭桥术类的Cell在性能和准确度上几乎没有什么差别,只是在具体的某些业务上会有略微不同。


由于GRU比LSTM少一个状态输出,但效果几乎与LSTM一样,因此在编码时使用GRU可以让代码更为简单一些。


2.4 只有忘记门的LSTM(JANET)单元


   JANET(Just Another NETwork)单元也是LSTM单元的个变种,发布于2018年,实验表明,只有忘记门的网络的性能居然优于标准LSTM单元。同样,该优化方式他以被用在GRU中。


3 独立循环单元


独立循环单元是一种新的循环神经网络单元结构,其效果和速度均优于LSTM单元


IndRNN单元不但可以有效解决传统RNN模型存在的梯度消失和梯度“爆炸”问题,而且能够更好地学习样本中的长期依赖关系。


在搭建模型时:


  • 可以用堆叠、残差、全连接的方式使用IndRNN单元,搭建更深的网络结构:


  • 将IndRNN单元配合RLU等非饱和激活函数一起使用,会使模型表现出更好的鲁棒性。


3.1 原始的RNN模型结构


1afe70ddaf1142a4adc4b0a4d6c89631.png


3.2 indRNN单元的结构


d7baa6eafdde4cb0b969f14cf2bf0c84.png


4 双向RNN结构


   双向RNN又称Bi-RNN,是采用了两个方向的RNN模型。


   RNN模型擅长的是对连续数据的处理,既然是连续的数据,那么模型不但可以学习它的正向特征,而且可以学习它的反向特征。这种将正向和反向结合的结构,会比单向的循环网络更高的拟合度。例如,预测一个语句中缺失的词语,则需要根据上下文来进行预测。


92c1676c08cd43488c44e5a838603633.png


双向RNN的处理过程就是在正向传播的基础上再进行一次反向传播。正向传播和反向传播都连接着一个输出层。这个结构提供给输出层输入序列中每二个点的完整的过去和未来的上下文信息。图所示是一个沿着时间展开的双向循环神经网络。


   双向RNN会比单向RNN多一个隐藏层,6个独特的权值在每一个时步被重复利用,6个权值分别对应:输入到向前和向后隐含层,隐含层到隐含层自身,向前和向后隐含层到输出层。


   双向RNN在神经网络里的时序如图7-37所示。


   在按照时间序列正向运算之后,网络又从时间的最后一项反向地运算一遍,即把时刻的输入与默认值0一起生戒反向的0u3,把反向ou3当成2时刻的输入与原来的时刻输人一起生成反向Qu2,依此类推,直到第一个时序数据


383941151ae9423d9490f286658a58e4.png


双向循环神经网络有两个输出:一个是正向输出,另一个是反向输出。最终会把输出结果通过concat并联在一起,然后交给后面的层来处理。


假设单向的循环神经网络输出的形状为[seq,batch,nhidden],则双向循环神经网络输出的形状就会交成[seq,batch,nhidden×2]


在大多数应用中,基于时间序列与上下文有关的类似NLP中自动回答类的问题,一般使用双向LSTM配合LSTM或RNN横向扩展来实现,效果非常好。

目录
相关文章
|
1月前
|
机器学习/深度学习 数据采集 存储
时间序列预测新突破:深入解析循环神经网络(RNN)在金融数据分析中的应用
【10月更文挑战第7天】时间序列预测是数据科学领域的一个重要课题,特别是在金融行业中。准确的时间序列预测能够帮助投资者做出更明智的决策,比如股票价格预测、汇率变动预测等。近年来,随着深度学习技术的发展,尤其是循环神经网络(Recurrent Neural Networks, RNNs)及其变体如长短期记忆网络(LSTM)和门控循环单元(GRU),在处理时间序列数据方面展现出了巨大的潜力。本文将探讨RNN的基本概念,并通过具体的代码示例展示如何使用这些模型来进行金融数据分析。
218 2
|
11天前
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
|
1月前
|
机器学习/深度学习 存储 自然语言处理
从理论到实践:如何使用长短期记忆网络(LSTM)改善自然语言处理任务
【10月更文挑战第7天】随着深度学习技术的发展,循环神经网络(RNNs)及其变体,特别是长短期记忆网络(LSTMs),已经成为处理序列数据的强大工具。在自然语言处理(NLP)领域,LSTM因其能够捕捉文本中的长期依赖关系而变得尤为重要。本文将介绍LSTM的基本原理,并通过具体的代码示例来展示如何在实际的NLP任务中应用LSTM。
70 4
|
1月前
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
3月前
|
自然语言处理 C# 开发者
Uno Platform多语言开发秘籍大公开:轻松驾驭全球用户,一键切换语言,让你的应用成为跨文化交流的桥梁!
【8月更文挑战第31天】Uno Platform 是一个强大的开源框架,允许使用 C# 和 XAML 构建跨平台的原生移动、Web 和桌面应用程序。本文详细介绍如何通过 Uno Platform 创建多语言应用,包括准备工作、设置多语言资源、XAML 中引用资源、C# 中加载资源以及处理语言更改。通过简单的步骤和示例代码,帮助开发者轻松实现应用的国际化。
41 1
|
3月前
|
机器学习/深度学习
【机器学习】面试题:LSTM长短期记忆网络的理解?LSTM是怎么解决梯度消失的问题的?还有哪些其它的解决梯度消失或梯度爆炸的方法?
长短时记忆网络(LSTM)的基本概念、解决梯度消失问题的机制,以及介绍了包括梯度裁剪、改变激活函数、残差结构和Batch Normalization在内的其他方法来解决梯度消失或梯度爆炸问题。
144 2
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
TensorFlow 中的循环神经网络超厉害!从理论到实践详解,带你领略 RNN 的强大魅力!
【8月更文挑战第31天】循环神经网络(RNN)在人工智能领域扮演着重要角色,尤其在TensorFlow框架下处理序列数据时展现出强大功能。RNN具有记忆能力,能捕捉序列中的长期依赖关系,适用于自然语言处理、机器翻译和语音识别等多个领域。尽管存在长期依赖和梯度消失等问题,但通过LSTM和GRU等改进结构可以有效解决。在TensorFlow中实现RNN十分简便,为处理复杂序列数据提供了有力支持。
35 0
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
7.1 NLP经典神经网络 RNN LSTM
该文章介绍了自然语言处理中的情感分析任务,探讨了如何使用深度神经网络,特别是循环神经网络(RNN)和长短时记忆网络(LSTM),来处理和分析文本数据中的复杂情感倾向。
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
4天前
|
存储 SQL 安全
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
【10月更文挑战第39天】在数字化时代,网络安全和信息安全成为了我们生活中不可或缺的一部分。本文将介绍网络安全漏洞、加密技术和安全意识等方面的内容,帮助读者更好地了解网络安全的重要性,并提供一些实用的技巧和方法来保护自己的信息安全。
15 2

热门文章

最新文章