深度学习:Self-Attention与Multi-heads Attention详解

简介: 深度学习:Self-Attention与Multi-heads Attention详解

深度学习:Self-Attention与Multi-heads Attention详解

Introduction

Transformer 最初是由 Ashish Vaswani等人提出的一种用以完成机器翻译的 Seq2Seq 学习任务的全新网络结构,它完全基于注意力机制来实现从序列到序列的建模。相比于以往 NLP 模型中使用 RNN 或者编码-解码结构,其具有计算复杂度小、并行度高、容易学习长程依赖等优势。Transformer 网络结构如图 :
在这里插入图片描述

Self - Attention

我们在刚接触的Transformer的时候,首先遇到的难题是Self-attention这个模块:

在这里插入图片描述

从左下角看起,假设一个序列数据有x1、x2, 每个x是一个高维向量。然后通过fx,把 x Embedding成低维向量a1,a2,让后对a1,a2分别通过全连接层(对应的权重矩阵w)得到对应的q(query),k(key),v(value)。

首先简单的解释一下q k v的含义
这就要看一下self attention的整体架构如下图:

在这里插入图片描述

其中A为1个序列数据,a为序列数据的4个元素,每个a都是一个向量。a为input,b为output
,其中b1为a1考虑了整个序列数据的结果,也就是说a1会与a1,a2,a3,a4 计算一个attention score(也可以叫做相关性)。

那么如何计算这个attention score呢?
假设a1要与其它的元素(包括a1本身)计算相关性,那么q就是a1,k就是被计算相关性的元素。
计算方法有很多种,我们主要列举两种:
在这里插入图片描述

分为dot product 和 与 additive ,前者就是计算出q k后,做点乘(对应元素相乘在相加),然后得到q对所有k的相关性,然后经过softmax处理得到attention score,在大部分情况下我们都采用这种方法,后者则是做加法然后经过tanh激活得到。

我们得到一组attention score就表示q 与 各个k的相似性,分数越高,相关性越大,就会dominate 对应的输出结果b。之后把attention score与value相乘,然后把所有结果相加得到结果b。

举例来说 把序列A:={a1,a2}输入self attention模块, 得到 b1,b2,其中b1表示a1考虑了 整体输入的结果,也就是说在计算资源足够的情况下,这个架构不会因为序列过长而遗忘起始元素。

我们在看一下论文中的公式
在这里插入图片描述
这里只差根号dk没有解释过了,dk表示序列的长度,它的作用是为了防止数值过大,维持数值稳定性。

Multi-Head Attention

多头注意力与单头其实很相似,假设head为2,结构如下图:
在这里插入图片描述

假设q1 为(1,1,0,1),那么把均分为head个,把它们分配给每个head,

(实际是不同的head的所对应的q权重矩阵不同在这里插入图片描述

得到 q11,q 12,其中第一个下标代表序列元素的索引,第二个下标代表head。 k v重复刚才的操作,
然后把head数相同的放在一起计算:

在这里插入图片描述

然后对结果执行concat操作。

在这里插入图片描述

最后在乘上矩阵W_o融合不同维度特征,它的作用类似于1 * 1卷积。

Position- Encoding

方法为直接在input上 add 位置编码。

分为两种方法:

  1. 公式编码

    在这里插入图片描述

    1. 可训练的位置编码
目录
相关文章
|
16天前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习】Attention的原理、分类及实现
文章详细介绍了注意力机制(Attention)的原理、不同类型的分类以及如何在Keras中实现Attention。文章涵盖了Attention的基本概念、计算区域、所用信息、结构层次等方面,并提供了实现示例。
38 0
|
3月前
|
机器学习/深度学习 自然语言处理 TensorFlow
使用Python实现深度学习模型:注意力机制(Attention)
使用Python实现深度学习模型:注意力机制(Attention)
107 0
使用Python实现深度学习模型:注意力机制(Attention)
|
机器学习/深度学习 人工智能 自然语言处理
2017年ACL的四个NLP深度学习趋势 (二):可解释性和注意力(Interpretability and Attention)
作者通过分析2017年ACL的论文,以及演讲内容,得出了四个NLP深度学习趋势:Linguistic Structure 、 Word Embeddings、Interpretability 、Attention。今天我们就逐一分析一下这四个深度学习趋势。
2015 0
|
机器学习/深度学习 存储 自然语言处理
最前沿:图文结合详解深度学习Memory & Attention
该文献主要介绍深度学习网络中语音、文字以及图片这块中的典型神经网络,重点介绍Memory与Attention的发展前沿,分析了几个详细的典型模型,说明Memory与Attention在文字、语音以及图片相关应用中的重要性。
3073 0
|
机器学习/深度学习 存储 自然语言处理
最前沿:图文结合详解深度学习Memory & Attention
该文献主要介绍深度学习网络中语音、文字以及图片这块中的典型神经网络,重点介绍Memory与Attention的发展前沿,分析了几个详细的典型模型,说明Memory与Attention在文字、语音以及图片相关应用中的重要性。
12816 0
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
【深度学习】Python之人工智能应用篇——音频生成技术
音频生成是指根据所输入的数据合成对应的声音波形的过程,主要包括根据文本合成语音(text-to-speech)、进行不同语言之间的语音转换、根据视觉内容(图像或视频)进行语音描述,以及生成旋律、音乐等。它涵盖了声音结构中的音素、音节、音位、语素等基本单位的预测和组合,通过频谱逼近或波形逼近的合成策略来实现音频的生成。 音频生成技术的发展主要依赖于深度学习模型,如循环神经网络(RNN)、长短时记忆网络(LSTM)、Transformer等。这些模型通过学习大量的音频数据,能够自动生成与人类发音相似甚至超越人类水平的音频内容。近年来,随着大规模预训练模型的流行,如GPT系列模型、BERT、T5等,
12 7
【深度学习】Python之人工智能应用篇——音频生成技术
|
1天前
|
机器学习/深度学习 人工智能 算法
【深度学习】python之人工智能应用篇——图像生成技术(二)
图像生成是计算机视觉和计算机图形学领域的一个重要研究方向,它指的是通过计算机算法和技术生成或合成图像的过程。随着深度学习、生成模型等技术的发展,图像生成领域取得了显著的进步,并在多个应用场景中发挥着重要作用。
15 9
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
【深度学习】深度学习的概述及应用,附带代码示例
深度学习(Deep Learning,简称DL)是机器学习领域中的一个重要分支,其目标是通过模拟人脑神经网络的工作机制,构建多层次的抽象特征表示,使机器能够自动从原始数据中提取关键信息,从而实现高精度的任务执行。深度学习通过多层神经网络结构及其训练方式,实现了从低级像素级别到高级概念级别的递进式知识层次。 深度学习的主要组件包括输入层、隐藏层和输出层。隐藏层的数量和层数决定了模型的复杂度和表达能力。在训练过程中,权重更新和梯度下降法是关键步骤,目的是最小化损失函数,提高预测精度。深度学习主要基于反向传播算法(BP Algorithm)来优化模型参数,通过正向传播、损失计算、反向传播和梯度下降等
19 8
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
【深度学习】探讨最新的深度学习算法、模型创新以及在图像识别、自然语言处理等领域的应用进展
深度学习作为人工智能领域的重要分支,近年来在算法、模型以及应用领域都取得了显著的进展。以下将探讨最新的深度学习算法与模型创新,以及它们在图像识别、自然语言处理(NLP)等领域的应用进展。
12 6

热门文章

最新文章