RNN-循环神经网络

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: 自然语言处理(Nature language Processing, NLP)研究的主要是通过计算机算法来理解自然语言。对于自然语言来说,处理的数据主要就是人类的语言,我们在进行文本数据处理时,需要将文本进行数据值化,然后进行后续的训练工作。

目录


词嵌入层

RNN网络层

RNN 网络原理


这一节我们学习循环神经网络,RNN~~



自然语言处理(Nature language Processing, NLP)研究的主要是通过计算机算法来理解自然语言。对于自然语言来说,处理的数据主要就是人类的语言,我们在进行文本数据处理时,需要将文本进行数据值化,然后进行后续的训练工作。


词嵌入


词嵌入层首先会根据输入的词的数量构建一个词向量矩阵,例如: 我们有 100 个词,每个词希望转换成 128 维度的向量,那么构建的矩阵形状即为: 100*128,输入的每个词都对应了一个该矩阵中的一个向量。在 PyTorch 中,我们可以使用 nn.Embedding 词嵌入层来实现输入词的向量化。


nn.Embedding是用于创建词嵌入层的模块,它允许我们将词汇表中的每个词映射到一个高维向量空间中的向量,从而将离散的词表示转化为连续的向量表示,便于神经网络处理。


  1. 定义词汇表大小和词嵌入维度
  2. 初始化词嵌入层
  3. 将词索引转换为词向量


nn.Embedding 对象构建时,最主要有两个参数:


  1. num_embeddings 表示词的数量
  2. embedding_dim 表示用多少维的向量来表示每个词


import torch
import torch.nn as nn
import jieba
 
 
if __name__ == '__main__':
 
    text = '北京冬奥的进度条已经过半,不少外国运动员在完成自己的比赛后踏上归途。'
 
    
    words = jieba.lcut(text)
 
    # 构建词表
    index_to_word = {}
    word_to_index = {}
 
    # 分词去重
    unique_words = list(set(words))
    for idx, word in enumerate(unique_words):
        index_to_word[idx] = word
        word_to_index[word] = idx
 
    # 词嵌入层
    embed = nn.Embedding(num_embeddings=len(index_to_word), embedding_dim=4)
 
    # 文本转换为词向量表示
    for word in words:
        # 获得词对应的索引
        idx = word_to_index[word]
        # 获得词嵌入向量
        word_vec = embed(torch.tensor(idx))
        print('%3s\t' % word, word_vec)


构建词嵌入层后的结果:


北京     tensor([[ 0.4808,  0.7438,  1.0369, -2.5594]], grad_fn=<EmbeddingBackward0>)

冬奥     tensor([[-2.0256, -0.4350,  0.5125, -0.3900]], grad_fn=<EmbeddingBackward0>)

 的     tensor([[ 0.9568, -1.1408,  0.8565,  2.3855]], grad_fn=<EmbeddingBackward0>)

进度条     tensor([[-1.9835, -0.3634,  0.5719,  0.1207]], grad_fn=<EmbeddingBackward0>)

已经     tensor([[ 0.2160,  0.7646,  1.7570, -0.5448]], grad_fn=<EmbeddingBackward0>)

过半     tensor([[ 2.9561,  0.7319,  1.4972, -0.9602]], grad_fn=<EmbeddingBackward0>)

 ,     tensor([[ 1.7826, -2.9717, -1.4483,  0.7267]], grad_fn=<EmbeddingBackward0>)

不少     tensor([[ 0.5369, -0.5746,  0.9269,  0.0755]], grad_fn=<EmbeddingBackward0>)

外国     tensor([[-1.2649,  0.7756,  1.2347, -0.1739]], grad_fn=<EmbeddingBackward0>)

运动员     tensor([[ 0.2955,  0.0700, -2.1510, -1.5085]], grad_fn=<EmbeddingBackward0>)

 在     tensor([[-0.7699,  2.0542, -0.1287, -1.9955]], grad_fn=<EmbeddingBackward0>)

完成     tensor([[ 0.9891, -1.4077,  0.6338,  1.6555]], grad_fn=<EmbeddingBackward0>)

自己     tensor([[-0.0085,  1.5657, -0.2206, -1.2746]], grad_fn=<EmbeddingBackward0>)

 的     tensor([[ 0.9568, -1.1408,  0.8565,  2.3855]], grad_fn=<EmbeddingBackward0>)

比赛     tensor([[ 0.3898,  1.0648, -0.4216,  0.3976]], grad_fn=<EmbeddingBackward0>)

 后     tensor([[-1.4346, -0.2116, -1.9429,  0.0319]], grad_fn=<EmbeddingBackward0>)

踏上     tensor([[ 0.6079, -1.0845,  0.2756,  1.9047]], grad_fn=<EmbeddingBackward0>)

归途     tensor([[ 0.8438, -0.6323, -0.6122, -0.4104]], grad_fn=<EmbeddingBackward0>)

 。     tensor([[-0.4558,  0.7774, -1.6783,  0.0778]], grad_fn=<EmbeddingBackward0>)


我们的词嵌入层是随机初始化的,现在还不能表示出文本的真正含义,当一个词输入进来之后,会使用随机产生的向量来表示该词,我们将该词向量参与到下游任务的计算,经过下游任务计算之后,会和目标结果进行对比产生损失,通过反向传播更新所有的网络参数,这里的参数就包括了 nn.Embedding 中的词向量表示。



RNN网络层


我们的文本数据是具有序列特性的,上面的词嵌入层将文本数据映射为数值向量,进而能够送入到网络进行计算,比如‘我爱你’是有顺序的,如果颠倒了顺序,那么可能就会表达不同的意思。


为了能够表示出数据的序列关系我们需要使用循环神经网络对数据进行建模,RNN 是一个具有记忆功能的网络,它作用于处理带有序列特点的样本数据。



RNN 网络原理


RNN的计算过程:



h 表示隐藏状态, 每一次的输入都会有包含两个值: 上一个时间步的隐藏状态、当前状态的输入值,最后输出当前时间步的隐藏状态。


上面的神经元实际上只有一个神经元,只是时间不同的三个状态,"我爱你" 三个字是重复输入到同一个神经元中。


如果我们使用文本生成,输入 "我爱" 这两个字,来预测出 "你",我们首先初始化出第一个隐藏状态,一般都是全0的一个向量,然后将 "我" 进行词嵌入,转换为向量的表示形式,送入到第一个时间步,然后输出隐藏状态 h1,然后将 h1 和 "爱" 输入到第二个时间步,得到隐藏状态 h2, 将 h2 送入到全连接网络,得到 "你" 的预测概率。


循环网络网络可以有多个神经元,多少个神经元就相当于是输出多少维度的词。



每个神经元内部还是使用像以往神经网络的激活函数和w、b权重。


RNN 层输入的数据为三个维度: (seq_len, batch_size,input_size)


seq_len是一次处理的句子中有几个词,batch_size是几个句子;


import torch
import torch.nn as nn
 
def func():
 
    # 输入数据维度 128, 输出维度 256
    rnn = nn.RNN(input_size=128, hidden_size=256)
 
    inputs = torch.randn(1, 32, 128)
    hn = torch.zeros(1, 32, 256)  # 初始隐藏层为0
 
    output, hn = rnn(inputs, hn)
    print(output.shape)
    print(hn.shape)
 
相关文章
|
2月前
|
机器学习/深度学习 数据采集 存储
时间序列预测新突破:深入解析循环神经网络(RNN)在金融数据分析中的应用
【10月更文挑战第7天】时间序列预测是数据科学领域的一个重要课题,特别是在金融行业中。准确的时间序列预测能够帮助投资者做出更明智的决策,比如股票价格预测、汇率变动预测等。近年来,随着深度学习技术的发展,尤其是循环神经网络(Recurrent Neural Networks, RNNs)及其变体如长短期记忆网络(LSTM)和门控循环单元(GRU),在处理时间序列数据方面展现出了巨大的潜力。本文将探讨RNN的基本概念,并通过具体的代码示例展示如何使用这些模型来进行金融数据分析。
364 2
|
5月前
|
机器学习/深度学习 数据采集 人工智能
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
|
1月前
|
机器学习/深度学习 自然语言处理 前端开发
前端神经网络入门:Brain.js - 详细介绍和对比不同的实现 - CNN、RNN、DNN、FFNN -无需准备环境打开浏览器即可测试运行-支持WebGPU加速
本文介绍了如何使用 JavaScript 神经网络库 **Brain.js** 实现不同类型的神经网络,包括前馈神经网络(FFNN)、深度神经网络(DNN)和循环神经网络(RNN)。通过简单的示例和代码,帮助前端开发者快速入门并理解神经网络的基本概念。文章还对比了各类神经网络的特点和适用场景,并简要介绍了卷积神经网络(CNN)的替代方案。
111 1
|
2月前
|
机器学习/深度学习 存储 自然语言处理
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
深度学习入门:循环神经网络------RNN概述,词嵌入层,循环网络层及案例实践!(万字详解!)
|
4月前
|
自然语言处理 C# 开发者
Uno Platform多语言开发秘籍大公开:轻松驾驭全球用户,一键切换语言,让你的应用成为跨文化交流的桥梁!
【8月更文挑战第31天】Uno Platform 是一个强大的开源框架,允许使用 C# 和 XAML 构建跨平台的原生移动、Web 和桌面应用程序。本文详细介绍如何通过 Uno Platform 创建多语言应用,包括准备工作、设置多语言资源、XAML 中引用资源、C# 中加载资源以及处理语言更改。通过简单的步骤和示例代码,帮助开发者轻松实现应用的国际化。
44 1
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
TensorFlow 中的循环神经网络超厉害!从理论到实践详解,带你领略 RNN 的强大魅力!
【8月更文挑战第31天】循环神经网络(RNN)在人工智能领域扮演着重要角色,尤其在TensorFlow框架下处理序列数据时展现出强大功能。RNN具有记忆能力,能捕捉序列中的长期依赖关系,适用于自然语言处理、机器翻译和语音识别等多个领域。尽管存在长期依赖和梯度消失等问题,但通过LSTM和GRU等改进结构可以有效解决。在TensorFlow中实现RNN十分简便,为处理复杂序列数据提供了有力支持。
43 0
|
5月前
|
机器学习/深度学习 数据采集 人工智能
循环神经网络RNN
7月更文挑战第2天
108 11
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
7.1 NLP经典神经网络 RNN LSTM
该文章介绍了自然语言处理中的情感分析任务,探讨了如何使用深度神经网络,特别是循环神经网络(RNN)和长短时记忆网络(LSTM),来处理和分析文本数据中的复杂情感倾向。
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
5月前
|
机器学习/深度学习 数据采集 数据挖掘
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)