引言
在离人工智能越来越近的今天,研究界和工业界对神经网络和深度学习的兴趣也越来越浓,期待也越来越高。
我们在深度学习与计算机视觉专栏中看过计算机通过卷积神经网络学会了识别图片的内容——模仿人类的看,而工业界大量的应用也证明了神经网络能让计算机学会听(比如百度的语音识别),于是大量的精力开始投向NLP领域,让计算机学会写也一定是非常有意思的事情,试想一下,如果计算机通过读韩寒和小四的小说,就能写出有一样的调调的文字,这是多带劲的一件事啊。
你还别说,还真有这么一类神经网络,能够在NLP上发挥巨大的作用,处理从语言模型(language model)到双语翻译,到文本生成,甚至到代码风格模仿的问题。这就是我么今天要介绍的RNN(递归神经网络)。
◆ ◆ ◆
神奇的RNN,不可思议的表现
RNN是一个和时间序列有关系的神经网络,大家想想,对单张图片而言,像素信息是静止的,而对于一段话而言,里面的词的组成是有先后的,而且通常情况下,后续的词和前面的词有顺序关联。这时候,独立层级结构的卷积神经网络通常就很难处理这种时序关联信息了,而RNN却能有效地进行处理。
RNN在处理时间序列的内容有多有效呢,咱们列一些RNN处理的例子来一起看看。
我们知道卷积神经网络在0-9数字识别上已经能有人类的识别精确度了,但是对于一连串的数字,还是得有一些特殊的处理的。比如说,下面是让RNN学会了从左到右读数字门牌号。
我们也能让RNN学着从右到左自己绘出门牌号图片:
RNN能模仿各种格式的文件,比如说下面是RNN学习出来的XML文件,和Latex代数几何文件样本:
我们暂时不管内容正确性,这个格式编排能力,已经让我瞠目结舌。
爱折腾的程序猿GG们,当然会把握住一切可学习的资源,于是乎,他们把github上linux的源码拉下来了,然后喂给递归神经网络学习,两三天后…我们发现它能自己生成如下的代码块了
且不说代码内容是否有意义,这标准的C代码风格,看完已有吓尿的趋势。
哦,对,刚才我们提了RNN对文字的处理能力。我们来看看,Andrej Karpathy自己做了一个实验,把所有莎士比亚的作品串起来组成一个单一的(4.4MB)文件。训练了一个512个隐藏节点的3层RNN网络。训练网络几小时后,得到了如下样本结果:
恩,作为一个文学功底弱哭的码农,莎士比亚这样的大文豪,文笔风格我是读不出来的。但是我们有韩寒啊,我们有广大女中学生稀饭的四娘啊,于是我们去github上扒了一份能处理中文的char-rnn代码下来。把四娘的大作集合,从《幻城》到《左手倒影右手年华》,再到《悲伤逆流成何》和《小时代》,处理了处理,放在一起(咳咳,我只是拿来做实验学习的,不传播…版权问题表找博主…),丢给RNN学习了,然后,恩,我们看看它能学到什么。
小四的文字我是看不懂的,不过RNN生成的这些文字,却让我也隐约感受到了一些“45度角仰望天空,眼泪才不会掉下来”的气息,当然,这几段已是输出结果中比较好的内容,也有一些通畅程度一般的,但足以证明递归神经网络在NLP上有不可思议的学习能力。
◆ ◆ ◆
递归神经网络浅解
刚才被递归神经网络惊呆的小伙伴们,咱们把目光先从小四那里收回来。看看这神奇的递归神经网络到底是何许神物,背后的原理又是什么样的。
传统的神经网络(包括CNN)中我们假定所有输入和输出都是相互独立的。很遗憾,对于许多任务而言,这一个假设是不成立的。如果你想预测下一个单词或一个句子,你就需要知道前面的词。递归神经网络之所以被称作递归,就是因为每个元素都执行相同的任务序列,但输出依赖之前的计算结果。我们换一种方法说明一下RNN:大家可以想象RNN模型是有“记忆”的,“记忆”中存储着之前已经计算的信息。理论上说RNN可以记得并使用任意长度的序列中的信息,不过实际应用中,我们通常只回溯几个步骤(后面详细讨论)。我们先一起来看一个典型的RNN的图例:
上图显示了将RNN展开成一个完整的网络的过程。之所以我们用展开这个字眼,因为递归神经网络每一层(或者我们叫做每个时间点t)到下一层(下一个时间点),其变换的过程(权重W)是一致的。举个例子说,如果我们关注的序列是包含5个单词的句子,递归神经网络将会依据先后顺序展开成五个神经网络,每个单词为一层。RNN是根据下面的步骤来迭代和做计算的:
假定$x_t$是时间$t$处的输入,比如$x_1$可以是句子中第二个单词one-hot编码后的词向量。
假定$s_t$是次数t的隐藏状态,哈哈,这就是我们提到的神经网络的“记忆大脑”。$s_t$由当前步骤的输入和先前隐藏状态共同计算求得:$s_t=f(Ux_t + Ws_{t-1})$。这个计算函数f通常是非线性的,比如说神经网络里经常用到的tanh或ReLU. $s_{-1}$是第一个隐藏状态,通常我们把它初始化为0。
$o_t$是第t步的输出。举个例子说,如果我们要预测在之前的词序列下,下一个词是什么,那我们可能拿到的是整个词表中,每个词的概率(通过softmax得到的),即$o_t = \mathrm{softmax}(Vs_t)$
针对上面的步骤,咱们再细提几个点:
我们就可以直接把隐状态$s_t$想作神经网络的“记忆体”,$s_t$捕捉和保留了之前时间点上的一些信息。输出$o_t$是由当前时间点t上的“所有记忆信息”来计算得到的。实际工程应用中,通常我们会做一些处理,因为实际上$s_t$并不能捕捉和保留之前的所有时间点的信息。
不像普通的深度神经网络,每一层和每一层之间都会有不同的权重参数,一个RNN神经网络共享同一组参数$(U, V, W)$(如图中所示),每一步都一样。这实际上表示我们在每一步到下一步都是做的同样的操作,只是输入不同。这样的一个好处是,极大地减小了需要训练和预估的参数量。
上面的图表在每一步都有输出/output,但是根据任务不同,有时候并没有必要在每一步都有输出。比如说我们对句子的情感做判定的时候,我们其实只关心最后的情感判定结果,而不是中间每个词的结果。RNN最主要的特征是隐状态,因为它是“记忆体”,保留了之前的绝大多数信息。
◆ ◆ ◆
不同类型的RNN
刚才我们提到的RNN只是最原始版本的RNN,而近几年随着研究者的深入,提出了一系列新的RNN网络类型。比如:
4.1 双向RNN
双向RNN的思想和原始版RNN有一些许不同,只要是它考虑到当前的输出不止和之前的序列元素有关系,还和之后的序列元素也是有关系的。举个例子来说,如果我们现在要去填一句话中空缺的词,那我们直观就会觉得这个空缺的位置填什么词其实和前后的内容都有关系,对吧。双向RNN其实也非常简单,我们直观理解一下,其实就可以把它们看做2个RNN叠加。输出的结果这个 时候就是基于2个RNN的隐状态计算得到的。
4.2 深层双向RNN
深层双向RNN和双向RNN比较类似,区别只是每一步/每个时间点我们设定多层结构。实际应用的时候,这种方式可以让我们的神经网络有更大的容量(但这也意味着我们需要更多的训练数据)
4.3 LSTM神经网络
LSTM(Long Short Term Memory)可能是目前最流行,你见到各种paper提到最多的RNN神经网络了。LSTM和基线RNN并没有特别大的结构不同,但是它们用了不同的函数来计算隐状态。LSTM的“记忆”我们叫做细胞/cells,你可以直接把它们想做黑盒,这个黑盒的输入为前状态$h_{t-1}$和当前输入$x_t$。这些“细胞”会决定哪些之前的信息和状态需要保留/记住,而哪些要被抹去。实际的应用中发现,这种方式可以有效地保存很长时间之前的关联信息。关于LSTM的细节,我们会在之后的博文里再和大家继续提到。
◆ ◆ ◆
动手实现简单的RNN
下面我们用python和Theano库实现一个简单的RNN,并解决一类最常见但有有用的NLP问题,语言模型。
5.1 语言模型简介
语言模型是NLP中最常见和通用的一个概念。它能帮助我们判定一个短语串或者一句话出现的概率(在给定一个语料集后)。这在各种打分机制中非常非常有用,比如翻译系统中翻译结果的选定,比如语音识别中文字串的选定。关于语言模型具体的内容可以参见我们之前的博文从朴素贝叶斯到N-gram语言模型(http://blog.csdn.net/han_xiaoyang/article/details/50646667)。
我们这里的目标就是要用RNN构建语言模型,即输出短语串/一句话的概率
$$\begin{aligned} P(w_1,...,w_m) = \prod_{i=1}^{m} P(w_i \mid w_1,..., w_{i-1}) \end{aligned}$$
上式中,$w_i$依赖于前序的$i-1$个词,理论上说,RNN能够捕捉和记忆下所有的前序的信息和依赖关系,但实际上的情况会稍微复杂一些,时间/序列越长,需要记住的信息越多,但是损失的信息也可能越多。
5.2 数据与预处理
我们需要一些文本语料去让RNN学习,所幸的是,并不像有监督学习中,每个样本都需要标注一个结果,这里只要句子或者短语串就可以。因此我们从reddit(类似百度贴吧)中抓了15000条长评论下来。我们希望RNN能学到这些评论者的评论风格(就像神奇的帝吧),并能模仿他们生成一些话。但是我们都知道,机器学习问题,效果的上限其实取决于你的数据,所以我们都需要对数据先做一些预处理。
5.2.1 分词与处理
最初的语料文本需要一些简单的处理才能交给机器学习算法学习,比如句子最常见的处理是分词,对于英语而言,有纯天然的空格分隔开,对中文而言,我们需要自己去做断句和分词。比如英文的句子 “He left!”可以分词成3部分: “He”, “left”, “!”。这里使用python的NLTK包做分词处理。
5.2.2 去掉低频/停用词
其实绝大多数词在我们的文本中就只会出现一两次,而这些极度不常出现的词语,其实去掉就行了,对最后的结果反倒有帮助。太多的词语,一方面让模型的训练变得很慢,同时因为它们只出现一两次,所以我们从语料中也学不出太多和它们相关的知识。因此我们有很简单的处理方法来处理它们。
比如说,我们就限定我们的语料库是8000词的,这8000词以外的词语我们都用UNKNOWN_TOKEN这个特殊字符来标注。比如单词“nonlinearities”不在我们的8000词汇集中,那“nonlineraties are important in neural networks”这句话就要被我们处理成“UNKNOWN_TOKEN are important in Neural Networks”了。我们完全可以把UNKNOWN_TOKEN视作一个新的词汇,而对于它的预测也和其他词完全一样。
5.2.3 开头与结尾
分词后,一句话变成一个词/短语 串,我们再做一些特殊的处理,比如把SENTENCE_START和SENTENCE_END添加到词/短语 串首位当做特殊的开始于结束标志。这样句子第一个词的预测可以看做出现SENTENCE_START后,出现第一个词的概率。
5.2.4 词向量映射
对于词向量的编码,我们打算用最简单的词序列编码。解释一下,大概是这样。一句简单的“I left home”的输入x可能被译作[0, 179, 341, 416], 其中0对应句子起始符SENTENCE_START,而I在词表中的下标为179,而输出y会被译作[179, 341, 416, 1]。这个可理解吧,因为我们在做的事情,是由前面的词语,推断后面的词语。
代码大概是下面这个样子:
下面是一个实际的句子在这8000词汇的语料库中,映射成的X和Y,
x:
SENTENCE_START what are n’t you understanding about this ? !
[0, 51, 27, 16, 10, 856, 53, 25, 34, 69]
y:
what are n’t you understanding about this ? ! SENTENCE_END
[51, 27, 16, 10, 856, 53, 25, 34, 69, 1]
5.2.5 手把手构建RNN
我们还记得RNN的结构是下面这样的:
我们先来做一些数据设定和构建。
假设输入x为词序列(就像前面提到的一样),其中每个$x_t$都是一个独立的词。但是需要多说一句的是,因为我们这里要做矩阵运算,而词和词之间其实是没有数值大小差异的(虽然understanding编码为856,what为51,但是不代表understanding和what间有大小关系),所以我们这里还需要做一个简单的处理,即根据词表大小(8000)对词做一个one-hot编码。也就是说,每个词都是一个8000*1的向量,其中只有一个位置(这个词对应的位置)为1,其余位置的值都是0。 输出的$o$也是类似的表示形式,每一个$o_t$都是一个词表大小长度的向量,每个元素代表预测这个位置的词是下一个词的概率。
然后我们复习一下之前说到的RNN前向计算公式:
\begin{aligned} s_t &= \tanh(Ux_t + Ws_{t-1}) \\ o_t &= \mathrm{softmax}(Vs_t) \end{aligned}
咳咳,咱们是严谨派,再确认下各种输入输出的维度好了。我们假设词表大小C = 8000,而隐状态向量维度H = 100。这里需要提一下的是,我们之前也说到了,这个隐状态有点类似人类的“记忆体”,之前的数据信息都存储在这里,其实把它的维度设高一些可以存储更多的内容,但随之而来的是更大的计算量,所以这是一个需要权衡的问题。所以我们有下面一些设定:
$$\begin{aligned} x_t & \in \mathbb{R}^{8000} \\ o_t & \in \mathbb{R}^{8000} \\ s_t & \in \mathbb{R}^{100} \\ U & \in \mathbb{R}^{100 \times 8000} \\ V & \in \mathbb{R}^{8000 \times 100} \\ W & \in \mathbb{R}^{100 \times 100} \\ \end{aligned}$$
对了,其中U,V和W是RNN神经网络的参数,也就是我们要通过对语料学习而得到的参数。所以,总的说下来,我们需要$2HC + H^2$个参数,在我们现在的场景下,C=8000,H=100,因此我们大概有1610000个参数需要预估。同时,参数的大小,其实也给我一些提示,比如可能需要多少计算资源,大家可以做到提前心里有个数。我们这里大部分计算其实还好,因为one-hot编码后的矩阵,和其他矩阵相乘,其实可以看做挑选出其中的一列(行),最大的计算量在$Vs_t$处。这也就是说,如果计算资源有限,咱们最好把词表的规模限制一下,不要太大。
初始化参数
我们定义一个类,叫做RNNNumpy,初始化U,V和W还是有一些讲究的,我们不能直接把它们都初始化为0,这样在计算过程中会出现“对称化”问题。初始化的不同对于最后的训练结果是有不同的影响的,在这个问题上有很多的paper做了相关的研究,其实参数初始值的选定和咱们选定的激励函数是有关系的,比如我们这里选$\tanh$,而相关的论文推荐我们使用$\left[-\frac{1}{\sqrt{n}}, \frac{1}{\sqrt{n}}\right]$之间的随机数作为初始值,其中n是和前一层的连接数。额,看起来有点复杂哈,不过别担心,通常说来,你只要初始化参数为很小的随机数,神经网络就能正常训练。
以下是对应的python代码,其中word_dim是词表大小,hidden_dim是隐层大小,bptt_truncate大家先不用管,我们一会儿会介绍到。
前向计算
这个和卷积神经网络的前向运算完全一样,就是一个根据权重计算下一层/下一个时间点的输出、隐状态的过程。简单的实现如下:
从上面的代码我们也可以看到,我们不仅计算了输出o,同时我们也计算了隐状态s。我们之后得用它们去计算梯度,再重复一下哈,这里的每个$o_t$都是一个概率向量,表示每个词输出的概率。对了,其实在我们的场景下,我们只想知道下一个词是什么,对它的概率不那么关心,那就取最大概率那个词就行了,恩,我们定义了一个函数predict来实现这个功能:
来来来,试跑一下:
对于句子(这里长度为45)中的每个词, 我们的模型得到了8000个概率(对应词表中的词)。额,我们这里只是验证一下前向运算是否能正常进行,但是参数U,V,W是随机取的,未训练,因此得到的结果其实是随机的。
然后验证下predict函数:
计算损失函数
和其他机器学习算法一样一样的是,我们需要一个损失函数/loss function来表征现在的预测结果和真实结果差别有多大,也便于我们之后的迭代和训练。一个比较通用的损失函数叫做互熵损失,有兴趣仔细了解的同学,可以看看我们之前的博客线性SVM与SoftMax分类器,如果我们有N个训练样本(这里显然是句子中词的个数咯),C个类别(这里显然是词表大小咯),那我们可以这样去定义损失函数描述预测结果o和实际结果y之间的差距:
$$\begin{aligned} L(y,o) = - \frac{1}{N} \sum_{n \in N} y_{n} \log o_{n} \end{aligned}$$
公式看起来略吓人,但其实它做的事情就是把每个样本的损失加一加,然后输出,我们定义了一个calculate_loss函数:
用随机梯度下降和时间反向传播训练RNN
现在损失函数也有咯,我们要做的事情就是最小化这个损失函数,以让我们的预测结果和真实的结果最接近咯。最常用的优化算法叫做SGD(随机梯度下降),大家可以理解成我们要从一座山上下山,于是我们每到一个位置,都环顾一下四周,看看最陡(下山最快)的方向是什么,然后顺着它走走,“随机”的意思是我们其实不用全部的样本去计算这个方向,而是用部分样本(有时候是一个)来计算。
计算这个方向就是我们计算梯度的过程,从数学上来说,其实就是在给定损失函数$L$之后,偏导向量的方向,这里因为有U,V,W三个参数,所以其实我们是要求$\frac{\partial L}{\partial U}, \frac{\partial L}{\partial V}, \frac{\partial L}{\partial W}$。
细致的内容我们之后会再提到,这里呢,简单地告诉大家,我们需要一个反向传播(时间轴上的)来用求导链式法则计算梯度。代码如下:
恩,然后我们需要根据梯度来迭代和更新参数,也就是要顺着坡度方向下山咯。
那个,那个,我们得试验一下,是不是这玩意确实能让我们下山。恩,也就是迈着步子的过程,你得看看,我们的海拔是不是每次都降了一些。我们这个地方也来检查一下:
恩,还凑合,看样子确实在带着我们迈向成功,O(∩_∩)O~
恩,上面就是一个完整的简易RNN实现,至少,是可用的。
不过尴尬的是。。。同学们有木有发现,在CPU上,这样的每一轮迭代,都要花费160ms左右的时间。这蛋碎的速度,加上RNN巨大的训练轮数,要把小四的作品都学完,咳咳,估计人家下几本书都出了。于是只好祭出大杀器——GPU,配合某python深度学习库Theano来加速了:
这就是用开源库的好处,纯手撸的N行代码,在这里调了几个函数就Done了…恩,感谢开源精神…
产出文本
有模型之后,我们就可以试着去生成概率最高的文本了。
然后你就发现,上面的模型能模仿reddit中的评论,去生成一些句子了。比如:
Anyway, to the city scene you’re an idiot teenager.
What ? ! ! ! ! ignore!
Screw fitness, you’re saying: https
Thanks for the advice to keep my thoughts around girls :)
Yep, please disappear with the terrible generation.
居然连标点和有些标点组成的表情都模仿出来了,还是灰常神奇的,当然,基线版的RNN也产出了非常非常多的不顺畅句子,这个和我们的语料量,以及中间隐状态的维度有关系。但另外一点是,这种方式的RNN,“记忆体”并不是最合适的,比如最近很火的LSTM和GRU都能更好地处理历史信息的记忆和遗忘过程。这个我们会在之后的博客里面提到。
◆ ◆ ◆
总结
以上就是这篇RNN简介的所有内容,RNN确实是一个非常神奇的神经网络,而在对时间序列信息(比如NLP自然语言处理)上也有着独到的优势。更多的RNN与NLP处理的知识(比如LSTM)我们在之后的博客里会提到,现在的RNN能基于大量的语料学习写一些简单的句子,相信有一天,计算机也能写出大段的优美诗歌,赏心悦目的文字,长篇情节跌宕起伏的小说。
参考文献:
1、Recurrent Neural Networks Tutorial, Part 1 – Introduction to RNNs
2、Recurrent Neural Networks Tutorial, Part 2 – Implementing a RNN with Python, Numpy and Theano
3、The Unreasonable Effectiveness of Recurrent Neural Networks
4、char-rnn-chinese
原文发布时间为:2016-04-27
本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号