RNN-循环神经网络

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
简介: 自然语言处理(Nature language Processing, NLP)研究的主要是通过计算机算法来理解自然语言。对于自然语言来说,处理的数据主要就是人类的语言,我们在进行文本数据处理时,需要将文本进行数据值化,然后进行后续的训练工作。

目录


词嵌入层

RNN网络层

RNN 网络原理


这一节我们学习循环神经网络,RNN~~



自然语言处理(Nature language Processing, NLP)研究的主要是通过计算机算法来理解自然语言。对于自然语言来说,处理的数据主要就是人类的语言,我们在进行文本数据处理时,需要将文本进行数据值化,然后进行后续的训练工作。


词嵌入


词嵌入层首先会根据输入的词的数量构建一个词向量矩阵,例如: 我们有 100 个词,每个词希望转换成 128 维度的向量,那么构建的矩阵形状即为: 100*128,输入的每个词都对应了一个该矩阵中的一个向量。在 PyTorch 中,我们可以使用 nn.Embedding 词嵌入层来实现输入词的向量化。


nn.Embedding是用于创建词嵌入层的模块,它允许我们将词汇表中的每个词映射到一个高维向量空间中的向量,从而将离散的词表示转化为连续的向量表示,便于神经网络处理。


  1. 定义词汇表大小和词嵌入维度
  2. 初始化词嵌入层
  3. 将词索引转换为词向量


nn.Embedding 对象构建时,最主要有两个参数:


  1. num_embeddings 表示词的数量
  2. embedding_dim 表示用多少维的向量来表示每个词


import torch
import torch.nn as nn
import jieba
 
 
if __name__ == '__main__':
 
    text = '北京冬奥的进度条已经过半,不少外国运动员在完成自己的比赛后踏上归途。'
 
    
    words = jieba.lcut(text)
 
    # 构建词表
    index_to_word = {}
    word_to_index = {}
 
    # 分词去重
    unique_words = list(set(words))
    for idx, word in enumerate(unique_words):
        index_to_word[idx] = word
        word_to_index[word] = idx
 
    # 词嵌入层
    embed = nn.Embedding(num_embeddings=len(index_to_word), embedding_dim=4)
 
    # 文本转换为词向量表示
    for word in words:
        # 获得词对应的索引
        idx = word_to_index[word]
        # 获得词嵌入向量
        word_vec = embed(torch.tensor(idx))
        print('%3s\t' % word, word_vec)


构建词嵌入层后的结果:


北京     tensor([[ 0.4808,  0.7438,  1.0369, -2.5594]], grad_fn=<EmbeddingBackward0>)

冬奥     tensor([[-2.0256, -0.4350,  0.5125, -0.3900]], grad_fn=<EmbeddingBackward0>)

 的     tensor([[ 0.9568, -1.1408,  0.8565,  2.3855]], grad_fn=<EmbeddingBackward0>)

进度条     tensor([[-1.9835, -0.3634,  0.5719,  0.1207]], grad_fn=<EmbeddingBackward0>)

已经     tensor([[ 0.2160,  0.7646,  1.7570, -0.5448]], grad_fn=<EmbeddingBackward0>)

过半     tensor([[ 2.9561,  0.7319,  1.4972, -0.9602]], grad_fn=<EmbeddingBackward0>)

 ,     tensor([[ 1.7826, -2.9717, -1.4483,  0.7267]], grad_fn=<EmbeddingBackward0>)

不少     tensor([[ 0.5369, -0.5746,  0.9269,  0.0755]], grad_fn=<EmbeddingBackward0>)

外国     tensor([[-1.2649,  0.7756,  1.2347, -0.1739]], grad_fn=<EmbeddingBackward0>)

运动员     tensor([[ 0.2955,  0.0700, -2.1510, -1.5085]], grad_fn=<EmbeddingBackward0>)

 在     tensor([[-0.7699,  2.0542, -0.1287, -1.9955]], grad_fn=<EmbeddingBackward0>)

完成     tensor([[ 0.9891, -1.4077,  0.6338,  1.6555]], grad_fn=<EmbeddingBackward0>)

自己     tensor([[-0.0085,  1.5657, -0.2206, -1.2746]], grad_fn=<EmbeddingBackward0>)

 的     tensor([[ 0.9568, -1.1408,  0.8565,  2.3855]], grad_fn=<EmbeddingBackward0>)

比赛     tensor([[ 0.3898,  1.0648, -0.4216,  0.3976]], grad_fn=<EmbeddingBackward0>)

 后     tensor([[-1.4346, -0.2116, -1.9429,  0.0319]], grad_fn=<EmbeddingBackward0>)

踏上     tensor([[ 0.6079, -1.0845,  0.2756,  1.9047]], grad_fn=<EmbeddingBackward0>)

归途     tensor([[ 0.8438, -0.6323, -0.6122, -0.4104]], grad_fn=<EmbeddingBackward0>)

 。     tensor([[-0.4558,  0.7774, -1.6783,  0.0778]], grad_fn=<EmbeddingBackward0>)


我们的词嵌入层是随机初始化的,现在还不能表示出文本的真正含义,当一个词输入进来之后,会使用随机产生的向量来表示该词,我们将该词向量参与到下游任务的计算,经过下游任务计算之后,会和目标结果进行对比产生损失,通过反向传播更新所有的网络参数,这里的参数就包括了 nn.Embedding 中的词向量表示。



RNN网络层


我们的文本数据是具有序列特性的,上面的词嵌入层将文本数据映射为数值向量,进而能够送入到网络进行计算,比如‘我爱你’是有顺序的,如果颠倒了顺序,那么可能就会表达不同的意思。


为了能够表示出数据的序列关系我们需要使用循环神经网络对数据进行建模,RNN 是一个具有记忆功能的网络,它作用于处理带有序列特点的样本数据。



RNN 网络原理


RNN的计算过程:



h 表示隐藏状态, 每一次的输入都会有包含两个值: 上一个时间步的隐藏状态、当前状态的输入值,最后输出当前时间步的隐藏状态。


上面的神经元实际上只有一个神经元,只是时间不同的三个状态,"我爱你" 三个字是重复输入到同一个神经元中。


如果我们使用文本生成,输入 "我爱" 这两个字,来预测出 "你",我们首先初始化出第一个隐藏状态,一般都是全0的一个向量,然后将 "我" 进行词嵌入,转换为向量的表示形式,送入到第一个时间步,然后输出隐藏状态 h1,然后将 h1 和 "爱" 输入到第二个时间步,得到隐藏状态 h2, 将 h2 送入到全连接网络,得到 "你" 的预测概率。


循环网络网络可以有多个神经元,多少个神经元就相当于是输出多少维度的词。



每个神经元内部还是使用像以往神经网络的激活函数和w、b权重。


RNN 层输入的数据为三个维度: (seq_len, batch_size,input_size)


seq_len是一次处理的句子中有几个词,batch_size是几个句子;


import torch
import torch.nn as nn
 
def func():
 
    # 输入数据维度 128, 输出维度 256
    rnn = nn.RNN(input_size=128, hidden_size=256)
 
    inputs = torch.randn(1, 32, 128)
    hn = torch.zeros(1, 32, 256)  # 初始隐藏层为0
 
    output, hn = rnn(inputs, hn)
    print(output.shape)
    print(hn.shape)
 
相关文章
|
3月前
|
机器学习/深度学习 数据采集 人工智能
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
Python实现深度神经网络RNN-LSTM分类模型(医学疾病诊断)
|
2月前
|
自然语言处理 C# 开发者
Uno Platform多语言开发秘籍大公开:轻松驾驭全球用户,一键切换语言,让你的应用成为跨文化交流的桥梁!
【8月更文挑战第31天】Uno Platform 是一个强大的开源框架,允许使用 C# 和 XAML 构建跨平台的原生移动、Web 和桌面应用程序。本文详细介绍如何通过 Uno Platform 创建多语言应用,包括准备工作、设置多语言资源、XAML 中引用资源、C# 中加载资源以及处理语言更改。通过简单的步骤和示例代码,帮助开发者轻松实现应用的国际化。
30 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
7.1 NLP经典神经网络 RNN LSTM
该文章介绍了自然语言处理中的情感分析任务,探讨了如何使用深度神经网络,特别是循环神经网络(RNN)和长短时记忆网络(LSTM),来处理和分析文本数据中的复杂情感倾向。
|
3月前
|
机器学习/深度学习 数据采集 人工智能
循环神经网络RNN
7月更文挑战第2天
67 11
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
RNN、LSTM、GRU神经网络构建人名分类器(三)
这个文本描述了一个使用RNN(循环神经网络)、LSTM(长短期记忆网络)和GRU(门控循环单元)构建的人名分类器的案例。案例的主要目的是通过输入一个人名来预测它最可能属于哪个国家。这个任务在国际化的公司中很重要,因为可以自动为用户注册时提供相应的国家或地区选项。
|
4月前
|
机器学习/深度学习
RNN、LSTM、GRU神经网络构建人名分类器(二)
这个文本描述了一个使用RNN(循环神经网络)、LSTM(长短期记忆网络)和GRU(门控循环单元)构建的人名分类器的案例。案例的主要目的是通过输入一个人名来预测它最可能属于哪个国家。这个任务在国际化的公司中很重要,因为可以自动为用户注册时提供相应的国家或地区选项。
|
4月前
|
机器学习/深度学习 数据采集
RNN、LSTM、GRU神经网络构建人名分类器(一)
这个文本描述了一个使用RNN(循环神经网络)、LSTM(长短期记忆网络)和GRU(门控循环单元)构建的人名分类器的案例。案例的主要目的是通过输入一个人名来预测它最可能属于哪个国家。这个任务在国际化的公司中很重要,因为可以自动为用户注册时提供相应的国家或地区选项。
|
3月前
|
机器学习/深度学习 数据采集 数据挖掘
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)
137 0
|
4月前
|
机器学习/深度学习
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
下一篇
无影云桌面