从RNN到LSTM,性能良好的神经网络到底是如何工作的?

本文涉及的产品
文档翻译,文档翻译 1千页
文本翻译,文本翻译 100万字符
图片翻译,图片翻译 100张
简介: 在2016年Google率先发布上线了机器翻译系统后,神经网络表现出的优异性能让人工智能专家趋之若鹜。本文将借助多个案例,来带领大家一同探究RNN和以LSTM为首的各类变种算法背后的工作原理。
数十款阿里云产品限时折扣中, 赶紧点击这里,领劵开始云上实践吧! 

本次直播视频精彩回顾, 戳这里!
直播涉及到的PPT, 戳这里!

课程主讲简介:
于恒,阿里巴巴机器智能技术实验室技术专家,中科院计算所博士,研究方向是机器翻译,在自然语言处理和人工智能领域顶级国际会议ACL、EMNLP、COLING等发表多篇论文。曾在三星中国研究院和搜狗负责机器翻译工作,参与上线搜狗翻译和搜狗海外搜索等产品。目前在阿里翻译平台组担任Tech-leader,主持上线了阿里神经网络翻译系统,为阿里巴巴国际化战略提供丰富的语言支持。

以下内容根据主讲嘉宾视频分享以及PPT整理而成。

2016年伊始,Google率先发布并上线了基于神经网络的机器翻译系统,其表现出的性能显著超越了之前工业界的所有系统,并且在某些特定领域已经接近了人类的翻译水准。传统翻译系统和神经网络的翻译系统之间的比较如下图所示:
a0cb0ede3fe92ce719f37d5e33d77c0b23cc9725
上图中,蓝色的部分代表传统的phrase-based(基于短语的翻译系统),而图中绿色的部分代表基于neural神经网络的系统。显然基于neural神经网络的系统在每个上语项都比传统的PBMT模型要表现得更好,并且在英语>西班牙语、西班牙语>英语和法语>英语这三个特定语言对上的翻译水准已经十分接近人类了。
具体的翻译对比可以参看上图中汉语>英语实际翻译的例子。可以看到,向系统中输入的中文语句中存在一个倒装的句式。在经过各自的翻译后,phrase-based的系统只是逐字的进行汉语>英语的翻译,而基于神经网络的系统实现了基本的翻译,还实现了语句的调序,使译文显得更加流利、更符合英文的表达特点,更加贴近于人工翻译,就仿佛机器理解了人类的对话一样。
从系统的机理来讲,传统的基于短语的翻译是基于词语对齐来实现的,而神经网络NMT则是使用了RNN(Recurrent neural Network,循环神经网络),借助于神经网络对原文和译文同时进行建模,实现了高效精准的翻译。这两种方法大致的实现过程如下图所示:
a5e03409dab395c86ce476506be8c6f2895e9edd
那么RNN是如何实现这种效果的呢?而这也是本次课程的重点所在。接下来将从以下几个方面进一步阐述RNN的原理及其更深层次的应用:
1、RNN原理,包括网络结构和Attention机制。
2、RNN的不足之处,并且引申出它的一个变种——LSTM。
3、通过三个案例介绍RNNs的“不讲理有效性”。
4、介绍RNN无法克服的问题及相关的建设性的解决方案。

一、RNN的原理
1、RNN网络结构
RNN的循环网络结构如下图所示:
711c8656537550f127c357bf1e52131090624df3
如图中左侧所示,RNN主要包括以下几个网络层:第一层是输入层,第二层是隐藏层(也叫context层),第三层输出层。其中隐藏层是一个循环的结构,当前t时刻的context(t),是由连接上一次训练的隐藏层context(t–1)生成。这样设计的好处在于可以对任意长度的sequence进行建模,这也是它区别于传统网络结构(要求输入的sequence的长度是固定已知的)的一个比较本质的区别。因此RNN适用于处理人类自然语言或者语音等。
如果对RNN的循环结构进行分解,在展开后,可以发现它其实是由很多神经网络堆砌在一起的,并且它每一层之间的参数都是共享的,导致RNN是一个非常深的网络结构,这种神经网络的叠加的结构也是它的优点所在。
如果用形式化的语言对网络结构进行表述,可以表示成ht=fw(ht-1, xt)。如下图所示:
9995e53f0d0cd0e9016420df41fba5cdb3f75a26
显然,当前t时刻隐藏层的状态ht,是由t-1时刻的隐藏层的状态和t时刻的输入xt通过函数fw来决定的。对该等式进行进一步拆分后,可以发现上述函数fw通常是用tanh函数来进行数字变换,拆分后的等式如下图所示:
8f60a8f5a682737ce13b513ecfa4016740ba713c
t时刻的状态ht,是由前一时刻的状态ht-1与Whh做矩阵相乘,再加上t时刻的输入xt与Wxh做矩阵相乘,将这两者之和进行tanh变换得到的。而t时刻的网络层的输出yt,是由t时刻的隐藏层状态ht与Why做一个矩阵相乘得到的。
可以看到整个网络中,所需要学习的参数有三个,第一个是隐藏层和隐藏层之间的Whh,第二个是输入层和隐藏层之间的Wxh,第三个是输出层和隐藏层之间的Why。
如果对RNN的整个的计算过程进行展开,如下图所示:
7eb3fef9d6a339ee5231c8e1bae3db8337f7af69
在t=0时刻,随机初始化一个隐藏层的状态h0,然后输入x1,通过函数fw进行数字变换后得到t=1时刻的隐藏层状态h1。然后以此类推,计算出从t=0时刻到t=T时刻的全部隐藏层状态。在这个过程中,每个time-step共用同一组权重矩阵W。对于每个time-step的隐藏层状态,还会借助于矩阵权重W计算得到输出y1...yT。以上就是网络的计算过程。
在实际的网络训练过程当中,可以根据每一个输出y得到它对应的Loss,将这些Loss组合在一起就可以得到所需的反向传播的Loss,然后通过随机梯度下降的方式进行反向传播并更新网络中的参数W,这样就完成了整个的训练过程。
如下图所示是RNN循环结构:
007109d4ddd1a75d8e9fd8891693a229bf739235
图中的每次循环都对应着不同的time-step,其算法的名字叫做Backpropagation through time。即对于一个长sequence,从第一个时间点计算到最后一个时间点,得到所有Loss之后,从最后一个时间点开始回传,直到到达最初的时间点,同时进行权重更新。
这样的算法其实存在一定的问题,当序列过长的时候,一次回传必须要等整个序列完成解码之后才能开始,这样会导致速度变慢,会影响整个模型收敛的速度。
所以产生了一种更加常用的算法——Truncated Backpropagation through time,如下图所示:
5812611e05d8caf07f1fe823391d2455322a753b
它的思想是将长序列截断成为多个短序列,然后对这些短序列进行权值更新。这样的好处在于,在对某个长序列进行计算,在中间某个时刻的时候,可以先返回一批梯度对参数进行更新,然后再此基础上对剩余的部分进行计算。这样权值更新的次数会增多,收敛速度也会加快。

2、具体案例实现
下面借助一个具体的例子——字符级别的语言模型来实现上述的过程,如图所示:
6ef2eaa7c6bb6ee7c77c43bd9bb0d3ea815d60ed
语言模型的思路与RNN是比较接近的,即当前时刻输出的概念是如之前的历史时刻相关的。对于序列“hello”而言,它由五个字符组成,包含有四类字母——‘h’、‘e’‘l’‘o’,在实际的训练过程中,第一个输入自然是‘h’,然后依次是‘e’、‘l’和‘l’,对于最
后一个字符‘o’,则不进行建模。如上图所示,先建立输入层(input layer),然后根据不同的输入得到其隐藏层(hidden layer)状态,即当前隐藏层状态是基于前一隐藏层状态得到的,对于每一个隐藏层,通过计算得到一个输出,该输出代表着当前字符可能生成的下一个字符,这样就得到了上述的计算图。在计算得到输出后,可以根据该输出已经相应的参考答案得到相应的Loss,借此进行参数更新。
以上是训练部分,具体的解码过程如下图:
a16e796b3b303f52e12a75959370e0a1fe08255c
假设拿到的第一个字符是‘h’,但是却不知道该字符的后续字符是什么,然后借助模型,经过隐藏层,得到输出层的输出,通过Softmax对输出进行概率化,然后取其中生成概率最大的字符作为输出。显然在输入字符‘h’时,最后得到的概率最大的字符就是‘e’,然后以此类推,就可以得到“hello”这个序列的预测。整个流程就是通过当前输入的字符预测出下一个字符,最终预测出一个完整的序列。

3、Attention机制
注意力机制(Attention Mechanism)在很多任务中对性能有着很大的影响。例如在sequence to sequence model中(第一个sequence指原文,第二个sequence指译文),如下图所示:
199a69db41a84641f42a5fd0badb9248bdeee9a3
图中将英文的“I am a student”翻译成法文,在即将生成目标端的词语的时候,RNN模型会将源端的所有信息压缩在一个隐藏层当中,然后将该信息输入下一个sequence中进行翻译的预测。当源端的序列很长的时候,一个隐藏层很难存放这么多源端的信息,这样在信息严重压缩之后,在目标端生成翻译的时候,会导致所需的上下文的信息是不够的。这也是RNN在实际使用中常遇到的一个问题,在目前可以采用下图中的方法进行避免:
89e02d85bbd63dabd009fe3b7b09a59fd2523514
在生成第二个单词的时候,根据目标端的隐藏层状态和源端的每一个隐藏层之间做相似度的计算,根据规划得到一个权重的得分,接着生成一个上下文的Attention Layer,借助于这个Attention Layer作用于生成第二个词的过程,进而生成正确的翻译。Attention的这种机制其实是很符合翻译的这种直觉的,即生成每一个词的时候,关注的源端位置是不一样的。在实际的应用中,Attention的这种机制的表现也非常好,这个也解决了RNN在长序列压缩中造成的信息丢失的问题。

二、RNN存在的问题及其变种——LSTM
前文中介绍的Backpropagation,即从sequence的末尾将梯度传回至sequence的开头。但是在梯度回传的过程中,它每一次的回传都要与循环网络的参数W(实际上是W的转置矩阵)进行矩阵相乘,其实际的数值转换的公式如下图:
9cb2c44711cae21fd722af67c3b0c0b875f25243
由于在每一次回传的过程中都需要与W进行矩阵相乘,并且重复进行tanh计算,如下图所示:
e3234dd13c9858ddce21ce75eac370516010c914
这样在训练上会带来一些问题:
1、当W的值大于1且这个序列足够长的时候,这个回传的梯度的数值就会变得无限大。
这种时候,可以采用Gradient clipping的方法解决,即将梯度重新进行数值变换到一个可以接受的范围。
2、如果W的数值小于1,就可能会造成梯度消失(导致完全无法更新)的问题。
这种时候,无论对梯度进行什么数值操作,都无法使用梯度来对参数进行更新,这时候可以考虑改变RNN的网络结构来克服这个缺陷,LSTM也就应运而生了。

LSTM与RNN相比,它将原有的网络结构拆成了更细的结构,如下图所示:
05eb46c99605721593e0c70fed8e3ce7f09620f0
可以看到,LSTM引入几个门的限制,例如keep gate、write gate和read gate。通过这些门来控制LSTM的信息传输量。其实际的结构如下图所示:
ec9c6b8e47d49e988c0d62179f533711862ee277
其中,f代表forget gate,i代表input gate,o代表output gate。上层的c在传输的过程中,只与这些门限的值进行数值变换,而不用跟整个网络参数W进行矩阵相乘,这样就避免了RNN回传梯度时可能发生的梯度爆炸或梯度消失的问题。
这些门限具体分为以下几种:
611581e5c36877810ae6ee7bf727ee7b7e128eb7
1、Keep Gate:它的作用是使LSTM的cell根据不同的输入去选择记忆或者遗忘前一个状态中的信息。
2、Write Gate:它用于控制LSTM的cell接受新的输入的百分比。
944e053fb878d3f56814f74dfd6af4762d94fde9
3、Update Gate:它实际上是对cell的更新,用于综合前一时刻状态与当前时刻状态。
4、Read Gate:它用于控制当前状态与Ct的信息的输入。
通过加入这几个门限,实际在循环网络结构ct-1到ct传播的过程中,只有一些较少的线性操作,并没有乘法操作。这样的好处在于它的gradient flow没有被过多的干扰,即整个流程中梯度的传播是非常通畅的,这样就解决了RNN中梯度爆炸或者梯度消失的问题。

而LSTM也存在一些变种:
1、peephole LSTM。在LSTM中,门限的数值和cell都是无关的。但其实这些cell是可以加入门限的计算过程中,去影响每个门限的值,这样整体上信息的流动就会更加通畅,在门限的计算上也会更准确一些,在某些任务上会取得更好的效果。
4f2688b444f83894d379f5fb058c8357af0532a0
2、GRU。它将forget gate和input gate合成一个update gate,这个gate用于综合控制cell的读和写,这样可以简化LSTM的参数,此外它还将cell state和hidden state进行合并。总体而言,它是一个比LSTM更加简化的结构,在训练上更加容易(参数少)。
0fb0d5cfb5608825d0c450342b1b4adf84c7fef9
3、Deep RNN。在RNN中,比较缺乏CNN中的层次化的结构,为了解决这个问题,它将多个RNN累积在一起,形成一种层次化的结构,并且不同层之间也存在网络连接,这样的好处在于每一层都可以代表一个信息抽象,另外它会吸收computation network的优势——同时兼容RNN和CNN。这种网络结构在机器翻译、对话等领域都有很好的应用。
73735f31e42fd738b732e380065d5e8b4f8575df

三、RNNs的“不讲理有效性”
1、Image Caption
Image Caption,即对图片的文字解释。如下图所示:
b1b6f6654942678a90efc1495dd2b2e868d54adc
可以看到,输入是一张图片,输出是对该图片的文字解释。具体实现流程如下:首先使用CNN(卷积神经网络)进行建模,然后将这些信息综合到Encoded state中,将其作为RNN的输入,然后逐词生成图片的描述,最终得到完整的图片描述。
具体来看,它结合CNN和RNN的网络结构,如下图所示:
f30f88e7ef586cb2f2f3f438eaa6924ddc0eca87
之所以这么使用,是因为CNN适用于图片的建模,而RNN适用于自然语言处理。因此可以先使用CNN对图片中的信息进行卷积,然后将得到的结果作为RNN的输入,去不断的生成图片的描述。
当然在这个过程中,也离不开Attention的机制,具体的流程如下图:
d6cd90b6e15bbb39e075b69c198b3d9d22813ee4
因为在生成图片的描述的时候,不同的词对应的图片的位置是不同的,如果采用Attention的机制,会使得图片信息的捕捉更为准确,而不是将图片的所有信息压缩到一个隐藏层里面,使得上下文的信息会更加丰富。
下图包含了一些有意思的例子:
35cf9264f6958aff6d2ee21302dcc1a02ca94b74
第一幅图片在生成frisbee这个单词的时候,可以观察到,frisbee那块区域是高亮的,即它关注的区域十分正确。同样,在第二个图中的dog和第三个图中的stop都是Attention机制良好作用的体现。
就实际而言,Image Caption是一个比较难的课题,上文中都是给的一个很好的例子,当然也会存在一些很差的例子。如下图所示:
9f8791628a1fe95831dfde0d3f196593d24de690
第一幅图中,这个女生穿的衣服十分像一只猫,在实际的图像描述的生成过程中,这件衣服被错误的识别成了一只猫,最终才得到了图中的错误的描述。又如最后一幅图片中,运动员实际上在接球,但是他的运动形态没能被捕捉到,才生成了他在扔球的这样一个错误的描述。可以看到Image Caption目前还是处于一个实验的阶段,还没有达到商业化的水平。

2、QA
在RNNs应用中另外一个比较火的是QA(问答系统)。它实现的链路跟上个例子有所类似,但是有一个不同之处在于:对于输入的问题,它采用了RNN而不是CNN进行建模,具体实现流程如下图所示:
bfd60163c6413d322ae2f3f3c1add2e2f1eea174
这就是人们常提到的Sequence to Sequence Model,即输入是Sequence,输出也是Sequence。对于输入的问题,先通过循环神经网络进行建模,然后将得到的Encoded state输入到另一个循环神经网络中,然后逐词的生成最终的回答。
在另一些例子里面,不仅会有文字的输入,还有图片等信息的输入,并且这些问题是基于图片中的场景来进行提问的,这样就会产生图片和文字联合组成QA的应用。以下图为例:
0c2dfbcfe178c5ea769c7b077465c07d9d8b1881
在LSTM建模的初始阶段,是使用了CNN将图片压缩作为了第一个隐藏层的状态,并且将问题也通过LSTM进行联合的建模,最终将整体的信息融入到encoder里面,并生成对应的翻译。从图中也可以看到,CNN和LSTM是可以紧密的联合在一起共同工作的,并且还可以通过Attention机制达到更好的交互。
下图是实际应用中一个比较有意思的例子:
fc28fdc310d3370d498dda79b7fb279acc99d94b
问A图中是哪种动物,在Attention机制中,捕捉到的这个猫的位置(白色方框)是比较集中的,这对于解答这个问题会起到很好的作用。在图B中问这个人拿到在切什么,显然白色方框聚焦的位置也是正确的。

3、Machine Translation
下图中这个例子就是机器翻译的链路,也是通过多层的RNN进行的建模,最终生成一个Final input matrix,然后借助Attention的机制,逐词生成目标翻译。
eb1589381e038f7e056e66cd381ed4fc27463a99
上图就是机器翻译过程的整体示意图。此外,Google提出的神经网络的翻译的架构如下图所示:
12875e829434c3fbcdfd7c09d47e0199da4ff5d3
在Encoder端有八层LSTM堆砌在一起的,这样便于对输入句子的含义进行更好的理解。然后通过Attention连接到另外一个八层LSTM的Decoder端,最终将结果输出到一个Softmax,来进行翻译的预测。
实际还有一种另外的交互的翻译方式——Speech Translation,如下图所示:
aae131f79601e1c92d46caf7258c4276c3b22920
即通过一个语言的序列,通过一个神经网络,得到语音识别的结果,然后对该结果进行拼写纠正、标点处理等,得到一个较好的语音识别的text,再将其输入到神经网络机器翻译系统中,生成对应日文的翻译,再借助于Text to Speech的系统,生成对应的日文的语言。

四、RNNs的阿喀琉斯之踵
1、RNNs对层次信息的表示能力和卷积能力都存在一些不足。因此产生了一些如Deep RNN、Bidirectional RNN和Hierarchical RNN的变种,都希望通过更层次化的网络结构来弥补这种不足。
2、RNNs的并行度很低。它的当前时刻的隐藏层的状态依赖于之前时间的状态,并且训练和解码的并行度都很低。
为了解决上面的问题,提出了一种新的神经网络的架构——Transformer,如下图所示:
10dbb449739efd46bfce00c13cfe873462136329
Transformer使用简单的FF-NN替代了GRU,这样就直接解决了在训练中难以并行的问题。但是由于取代了循环的结构,也会导致网络中各个位置的信息是缺乏的,也不知道序列的先后顺序。这时引入了一个Positional Encoding,对于每个位置都有一个Embedding来存储位置信息。在实际的网络结构中,可以分为几个Sub-layer:
Sub-layer1:即全连接的FF网络。
Sub-layer2:借助于sele-attention的机制来捕捉各个位置之间的关联关系。
Between 1 and 2:加入了residual connection和layer normal。

综上所述,而相比于RNN,Transformer有两大优点:
1、比RNN拥有更好的性能。
2、训练速度快了4倍。











































相关文章
|
1月前
|
机器学习/深度学习 数据采集 存储
时间序列预测新突破:深入解析循环神经网络(RNN)在金融数据分析中的应用
【10月更文挑战第7天】时间序列预测是数据科学领域的一个重要课题,特别是在金融行业中。准确的时间序列预测能够帮助投资者做出更明智的决策,比如股票价格预测、汇率变动预测等。近年来,随着深度学习技术的发展,尤其是循环神经网络(Recurrent Neural Networks, RNNs)及其变体如长短期记忆网络(LSTM)和门控循环单元(GRU),在处理时间序列数据方面展现出了巨大的潜力。本文将探讨RNN的基本概念,并通过具体的代码示例展示如何使用这些模型来进行金融数据分析。
233 2
|
15天前
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
|
1月前
|
机器学习/深度学习
YOLOv10优改系列一:YOLOv10融合C2f_Ghost网络,让YoloV10实现性能的均衡
本文介绍了YOLOv10的性能优化,通过融合Ghost模块和C2f结构,实现了网络性能的均衡。GhostNet通过GhostModule和GhostBottleNeck减少参数量,适用于资源有限的场景。YOLOv10-C2f_Ghost在减少参数和计算量的同时,保持了与原始网络相当或更好的性能。文章还提供了详细的代码修改步骤和可能遇到的问题解决方案。
135 1
YOLOv10优改系列一:YOLOv10融合C2f_Ghost网络,让YoloV10实现性能的均衡
|
26天前
|
缓存 监控 前端开发
优化网络应用的性能
【10月更文挑战第21天】优化网络应用的性能
16 2
|
1月前
|
测试技术
评测 AlibabaCloud 阿里云国际版 香港轻量云服务器的性能和网络怎么样
评测 AlibabaCloud 阿里云国际版 香港轻量云服务器的性能和网络怎么样
|
1月前
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
3月前
|
自然语言处理 C# 开发者
Uno Platform多语言开发秘籍大公开:轻松驾驭全球用户,一键切换语言,让你的应用成为跨文化交流的桥梁!
【8月更文挑战第31天】Uno Platform 是一个强大的开源框架,允许使用 C# 和 XAML 构建跨平台的原生移动、Web 和桌面应用程序。本文详细介绍如何通过 Uno Platform 创建多语言应用,包括准备工作、设置多语言资源、XAML 中引用资源、C# 中加载资源以及处理语言更改。通过简单的步骤和示例代码,帮助开发者轻松实现应用的国际化。
41 1
|
3月前
|
Prometheus 监控 网络协议
在Linux中,如何监控网络服务的状态和性能?
在Linux中,如何监控网络服务的状态和性能?
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
TensorFlow 中的循环神经网络超厉害!从理论到实践详解,带你领略 RNN 的强大魅力!
【8月更文挑战第31天】循环神经网络(RNN)在人工智能领域扮演着重要角色,尤其在TensorFlow框架下处理序列数据时展现出强大功能。RNN具有记忆能力,能捕捉序列中的长期依赖关系,适用于自然语言处理、机器翻译和语音识别等多个领域。尽管存在长期依赖和梯度消失等问题,但通过LSTM和GRU等改进结构可以有效解决。在TensorFlow中实现RNN十分简便,为处理复杂序列数据提供了有力支持。
35 0
|
3月前
|
物联网 网络架构 智能硬件

热门文章

最新文章

下一篇
无影云桌面