Transformers 自然语言处理(四)(1)

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
简介: Transformers 自然语言处理(四)

第十章:基于 BERT 的Transformers的语义角色标记

Transformers在过去几年中取得的进展比上一代 NLP 更大。标准的 NLU 方法首先学习句法和词汇特征来解释句子的结构。以前的 NLP 模型在运行语义角色标注SRL)之前会被训练来理解语言的基本句法。

ShiLin(2019)在他们的论文中提出了一个问题,是否可以跳过初步的句法和词汇训练。基于 BERT 的模型可以在不经历这些传统训练阶段的情况下执行 SRL 吗?答案是肯定的!

ShiLin(2019)建议将 SRL 视为序列标记,并提供标准化的输入格式。他们基于 BERT 的模型产生了令人惊讶的好结果。

本章将使用基于 ShiLin(2019)论文的艾伦人工智能研究所提供的预训练基于 BERT 的模型。ShiLin 通过放弃句法和词汇训练将 SRL 提高到了一个新的水平。我们将看到他们是如何做到的。

我们将首先定义 SRL 和序列标记输入格式的标准化。然后,我们将开始使用艾伦人工智能研究所提供的资源。接下来,我们将在 Google Colab 笔记本中运行 SRL 任务,并使用在线资源来理解结果。

最后,我们将通过运行 SRL 样本来挑战基于 BERT 的模型。第一批样本将展示 SRL 的工作原理。然后,我们将运行一些更困难的样本。我们将逐步推动基于 BERT 的模型达到 SRL 的极限。找到模型的极限是确保Transformers模型的现实和实用之路。

本章涵盖以下主题:

  • 定义语义角色标记
  • 定义 SRL 输入格式的标准化
  • 基于 BERT 的模型架构的主要方面
  • 编码器堆栈如何管理屏蔽的 SRL 输入格式
  • 基于 BERT 的模型 SRL 注意力过程
  • 开始使用由艾伦人工智能研究所提供的资源
  • 构建笔记本来运行预训练的基于 BERT 的模型
  • 在基本示例上测试句子标记
  • 在困难的例子上测试 SRL 并解释结果
  • 将基于 BERT 的模型推向 SRL 的极限并解释如何做到这一点

我们的第一步将是探索 ShiLin(2019)定义的 SRL 方法。

开始 SRL

对于人类和机器来说,SRL 都是一样困难的。然而,一次又一次,Transformers已经朝着我们人类基线迈出了一步。

在本节中,我们将首先定义 SRL 并举例说明。然后,我们将运行一个预训练的基于 BERT 的模型。

让我们首先定义 SRL 这个棘手的任务。

定义语义角色标记

ShiLin (2019)推进并证明了一个想法,即我们可以找出谁做了什么以及在哪里,而不依赖于词汇或句法特征。本章基于 Peng ShiJimmy Lin 在加利福尼亚滑铁卢大学展开的研究。他们展示了Transformers如何通过注意力层更好地学习语言结构。

SRL 将语义角色定义为单词或一组单词在句子中所起的作用以及与谓语所建立的关系。

语义角色是一个名词或名词短语在句子中与主要动词的关系中所扮演的角色。例如,在句子Marvin walked in the park中,Marvin是句子中发生事件的施事者施事者是事件的执行者。主动词,或控制动词,是walked

谓语描述了主语或施事者的一些信息。谓语可以是任何提供有关主题特征或行为的信息的东西。在我们的方法中,我们将谓语称为主要动词。例如,在句子Marvin walked in the park中,谓语是walked

词组在公园里 修饰的含义,并且是修饰语

环绕谓词的名词或名词短语称为论元论元项。例如,Marvinwalked的一个论元

我们可以看到,SRL 不需要句法树或词汇分析。

让我们可视化我们的示例的 SRL。

可视化 SRL

本章将使用 Allen Institute 的视觉和代码资源(有关更多信息,请参见参考部分)。 Allen Institute for AI 拥有出色的交互式在线工具,例如我们在本章中用来可视化 SRL 的工具。您可以在demo.allennlp.org/上访问这些工具。

Allen Institute for AI 倡导AI 造福人类。我们将充分利用这种方法。本章中的所有图表都是用 AllenNLP 工具创建的。

Allen Institute 提供了不断发展的Transformers模型。因此,当您运行这些示例时,本章中的示例可能会产生不同的结果。最充分利用本章的最佳方法是:

  • 阅读并理解解释的概念,而不只是运行程序
  • 花时间理解提供的示例

然后,使用本章中使用的工具运行您自己选择的句子进行您自己的实验:demo.allennlp.org/semantic-role-labeling

现在让我们可视化我们的 SRL 示例。图 10.1Marvin walked in the park的 SRL 表示:


图 10.1: 句子的 SRL 表示

我们可以在图 10.1中观察到以下标签:

  • 动词:句子的谓语
  • 论据:一个被命名为ARG0的句子论点
  • 修饰语:句子的修饰成分。在这种情况下是一个地点。它也可以是副词,形容词,或任何修改谓词意义的成分

文本输出同样有趣,其中包含了可视表示标签的缩写形式:

walked: [ARG0: Marvin] [V: walked] [ARGM-LOC: in the park] 

我们已经定义了 SRL 并进行了一个例子。现在是时候看看基于 BERT 的模型了。

运行一个预训练的基于 BERT 的模型

本节将首先描述本章中使用的基于 BERT 的模型的架构。

接下来我们将定义使用 BERT 模型实验 SRL 样本的方法。

让我们开始看一下基于 BERT 的模型的架构。

基于 BERT 的模型架构

AllenNLP 的基于 BERT 的模型是一个 12 层只编码器的 BERT 模型。AllenNLP 团队实现了ShiLin(2019)描述的 BERT 模型,并添加了一个额外的线性分类层。

欲了解更多关于 BERT 模型的描述,如有必要,请花几分钟回顾第三章BERT 模型微调

基于 BERT 的模型充分利用了双向注意力以简单的方法和架构。Transformers模型的核心潜力存在于注意力层中。我们已经看到了既有编码器和解码器堆栈的Transformers模型。我们已经看到了其他只有编码器层或者解码器层的Transformers。Transformers的主要优势仍然在于近乎人类的注意力层方法。

ShiLin(2019)定义的谓词标识格式的输入格式显示了Transformers在标准化语言理解方面取得的进展:

[CLS] Marvin walked in the park.[SEP] walked [SEP] 

训练流程已被标准化:

  • [CLS]表示这是一个分类练习
  • [SEP]是第一个分隔符,表示句子的结束
  • [SEP]后面是作者设计的谓词标识
  • [SEP]是第二个分隔符,表示谓词标识符的结束

光是这种格式就足够训练一个 BERT 模型来识别并标记句子中的语义角色。

让我们设置环境来运行 SRL 样本。

设置 BERT SRL 环境

我们将使用 Google Colab 记事本,在demo.allennlp.org/上提供的 AllenNLP SRL 的文本可视化下进行

我们将应用以下方法:

  1. 我们将打开SRL.ipynb,安装AllenNLP,并运行每个样本
  2. 我们将显示 SRL 运行的原始输出
  3. 我们将使用 AllenNLP 的在线可视化工具来可视化输出
  4. 我们将使用 AllenNLP 的在线文本可视化工具来显示输出

本章是自包含的。您可以阅读它,或按照描述运行示例。

当 AllenNLP 更改了使用的 transformer 模型时,SRL 模型的输出可能会有所不同。这是因为 AllenNLP 的模型和 transformers 通常都是持续训练和更新的。此外,用于训练的数据集可能会发生变化。最后,这些不是基于规则的算法,每次产生的结果可能会有所不同,正如屏幕截图中所描述和显示的那样。

现在让我们运行一些 SRL 实验。

使用基于 BERT 的模型进行 SRL 实验

我们将使用本章“设置 BERT SRL 环境”的方法来运行 SRL 实验。我们将从具有各种句子结构的基本样本开始。然后,我们将挑战基于 BERT 的模型,使用一些更难的样本来探索系统的能力和限制。

打开SRL.ipynb并运行安装单元格:

!pip install allennlp==2.1.0 allennlp-models==2.1.0 

然后我们导入标记模块和训练好的 BERT 预测器:

from allennlp.predictors.predictor import Predictor
import allennlp_models.tagging
import json
predictor = Predictor.from_path("https://storage.googleapis.com/allennlp-public-models/structured-prediction-srl-bert.2020.12.15.tar.gz") 

我们还添加了两个函数来显示 SRL BERT 返回的 JSON 对象。第一个显示谓语动词和描述:

def head(prediction):
  # Iterating through the json to display excerpt of the prediciton
  for i in prediction['verbs']:
    print('Verb:',i['verb'],i['description']) 

第二个函数显示完整的响应,包括标签:

def full(prediction):
  #print the full prediction
  print(json.dumps(prediction, indent = 1, sort_keys=True)) 

在本出版物发布之时,BERT 模型专门用于语义角色标注。该模型的名称是 SRL BERT。SRL BERT 是使用 OntoNotes 5.0 数据集进行训练的:catalog.ldc.upenn.edu/LDC2013T19

此数据集包含句子和注释。该数据集设计用于识别句子中的谓词(包含动词的部分),并确定提供有关动词的更多信息的单词。每个动词都带有其关于它的“参数”,告诉我们更多信息。一个“框架”包含一个动词的参数。

因此,SRL BERT 是一个专门训练来执行特定任务的专用模型,并且与我们在第七章看到的 OpenAI GPT-3 一样,并不是像 OpenAI GPT-3 这样的基础模型。

SRL BERT 将专注于语义角色标注,只要句子包含谓词,就可以以可以接受的准确度执行。

现在我们已经准备好使用一些基本样本进行热身了。

基本样本

基本样本在直观上看起来很简单,但分析起来可能有点棘手。复合句,形容词,副词和情态动词对于非专业人士来说甚至也很难识别。

让我们从 transformer 的一个简单样本开始。

样本 1

第一个样本很长,但对 transformer 来说相对容易:

“Bob 真的以为自己能在几小时内为 50 个人准备一顿饭吗?”

运行SRL.ipynb中的样本 1单元格:

prediction=predictor.predict(
    sentence="Did Bob really think he could prepare a meal for 50 people in only a few hours?"
)
head(prediction) 

BERT SRL 识别了四个谓词;每个谓词的动词都标记了结果,如在使用head(prediction)函数显示的这段摘录中:

Verb: Did [V: Did] Bob really think he could prepare a meal for 50 people in only a few hours ?
Verb: think Did [ARG0: Bob] [ARGM-ADV: really] [V: think] [ARG1: he could prepare a meal for 50 people in only a few hours] ?
Verb: could Did Bob really think he [V: could] [ARG1: prepare a meal for 50 people in only a few hours] ?
Verb: prepare Did Bob really think [ARG0: he] [ARGM-MOD: could] [V: prepare] [ARG1: a meal for 50 people] [ARGM-TMP: in only a few hours] ? 

您可以通过运行full(prediction)单元格来查看完整的响应。

如果我们根据 PropBank(命题银行)的结构使用数据集参数的描述,例如在这段摘录中,动词think可以被解释为:

  • V标识动词think
  • ARG0标识代理人; 因此,Bob是代理人或“主体代理人”
  • ARGM-ADVreally视为副词(ADV),ARGM表示该副词提供一个修饰语(不是必要的),因此没有编号

如果我们在 AllenNLP 在线界面上运行样本,则会获得每个动词一个框架的 SRL 任务的可视化表示。第一个动词是Did


图 10.2:识别动词“Did”

第二个确认的动词是think


图 10.3:识别动词“think”

如果我们仔细观察这个表示,我们可以检测到 SRL BERT 的一些有趣属性:

  • 检测到动词think
  • 避免了可能被解释为主要动词的prepare陷阱。 相反,prepare仍然是think的论点的一部分
  • 检测到一个副词并进行标记

第三个动词是could


图 10.4:识别动词“could”和论点

转换器然后转向动词prepare,标记它,并分析其上下文:


图 10.5:识别动词“prepare”,论点和修饰语

再次,基于简单 BERT 的转换器模型检测到了大量关于句子语法结构的信息,并发现:

  • 确定动词prepare并将其孤立出来
  • 确定名词he并将其标记为论据,对于a meal for 50 people也做同样处理,这是一个“原始患者”,涉及由其他参与者修改
  • in only a few hours是一个时间修饰语(ARGM-TMP
  • could是一个表示动词情态性的情态修饰语,例如事件发生的可能性

现在我们将分析另一个相对较长的句子。

样本 2

下面的句子看似简单,但包含多个动词:

Mrs.和 Mr. Tomaso 去欧洲度假并访问巴黎,首先去参观埃菲尔铁塔。

这个令人困惑的句子会使转换器犹豫吗?让我们通过运行SRL.ipynb笔记本的Sample 2单元格来看一下:

prediction=predictor.predict(
    sentence="Mrs. and Mr. Tomaso went to Europe for vacation and visited Paris and first went to visit the Eiffel Tower."
)
head(prediction) 

输出摘录证明转换器正确识别了句子中的动词:

Verb: went [ARG0: Mrs. and Mr. Tomaso] [V: went] [ARG4: to Europe] [ARGM-PRP: for vacation] and visited Paris and first went to visit the Eiffel Tower .
Verb: visited [ARG0: Mrs. and Mr. Tomaso] went to Europe for vacation and [V: visited] [ARG1: Paris] and first went to visit the Eiffel Tower .
Verb: went [ARG0: Mrs. and Mr. Tomaso] went to Europe for vacation and visited Paris and [ARGM-TMP: first] [V: went] [ARG1: to visit the Eiffel Tower] .
Verb: visit [ARG0: Mrs. and Mr. Tomaso] went to Europe for vacation and visited Paris and first went to [V: visit] [ARG1: the Eiffel Tower] . 

在 AllenNLP 在线上运行样本,可识别四个谓词,从而生成四个框架。

第一个框架是went


图 10.6:识别动词“went”,论点和修饰语

我们可以解释动词went的论点。Mrs.和 Mr. Tomaso是代理。 转换器发现动词的主要修饰语是旅行目的:to Europe。 如果我们不知道ShiLin(2019)只是建立了一个简单的 BERT 模型来获取这种高质量的语法分析,则结果将不令人惊讶。

我们还可以注意到wentEurope正确关联。Transformers正确地识别了动词visitedParis相关联:


图 10.7:识别动词“visited”和论点

Transformers本可以将动词visited直接与Eiffel Tower关联起来。但是它没有。它坚持自己的立场并做出了正确的决定。

我们要求Transformers做的下一个任务是确定动词went的第二次使用的上下文。同样,它没有陷入将与动词went相关的所有论点合并的陷阱。再次,它正确地分割了序列并产生了一个出色的结果:


图 10.8:识别动词“went”,论点和修饰语

动词went被使用了两次,但Transformers没有陷入陷阱。它甚至发现first是动词went的时间修饰语。

最后,动词visit第二次被使用,而 SRL BERT 正确解释了它的使用:


图 10.9:识别动词“visit”和论点

让我们运行一个更加令人困惑的句子。

示例 3

示例 3 将使我们的Transformers模型变得更加困难。以下示例包含动词drink的变体四次:

John 想喝茶,Mary 喜欢喝咖啡,但 Karim 喝了一些凉爽的水,Faiza 想喝番茄汁。

让我们在 SRL.ipynb 笔记本中运行 示例 3

prediction=predictor.predict(
    sentence="John wanted to drink tea, Mary likes to drink coffee but Karim drank some cool water and Faiza would like to drink tomato juice."
)
head(prediction) 

Transformers找到了它的方法,如下面输出的摘录所示,其中包含动词:

Verb: wanted [ARG0: John] [V: wanted] [ARG1: to drink tea] , Mary likes to drink coffee but Karim drank some cool water and Faiza would like to drink tomato juice .
Verb: drink [ARG0: John] wanted to [V: drink] [ARG1: tea] , Mary likes to drink coffee but Karim drank some cool water and Faiza would like to drink tomato juice .
Verb: likes John wanted to drink tea , [ARG0: Mary] [V: likes] [ARG1: to drink coffee] but Karim drank some cool water and Faiza would like to drink tomato juice .
Verb: drink John wanted to drink tea , [ARG0: Mary] likes to [V: drink] [ARG1: coffee] but Karim drank some cool water and Faiza would like to drink tomato juice .
Verb: drank John wanted to drink tea , Mary likes to drink coffee but [ARG0: Karim] [V: drank] [ARG1: some cool water] and Faiza would like to drink tomato juice .
Verb: would John wanted to drink tea , Mary likes to drink coffee but Karim drank some cool water and [ARG0: Faiza] [V: would] like [ARG1: to drink tomato juice] .
Verb: like John wanted to drink tea , Mary likes to drink coffee but Karim drank some cool water and [ARG0: Faiza] [ARGM-MOD: would] [V: like] [ARG1: to drink tomato juice] .
Verb: drink John wanted to drink tea , Mary likes to drink coffee but Karim drank some cool water and [ARG0: Faiza] would like to [V: drink] [ARG1: tomato juice] . 

当我们在 AllenNLP 在线界面上运行句子时,我们获得了几个视觉表示。我们将检查其中的两个。

第一个完美。它识别了动词wanted并做出了正确的关联:


图 10.10:识别动词“wanted”和论点

当它识别到动词drank时,它正确地排除了Faiza,并且只产生了some cool water作为论点。


图 10.11:识别动词“drank”和论点

到目前为止,我们发现基于 BERT 的Transformers在基本样本上产生了相对较好的结果。所以让我们尝试一些更困难的样本。

困难样本

本节将运行包含 BERT-based Transformers首先解决的问题的示例。最后,我们将以一个棘手的样本结束。

让我们从一个 BERT-based Transformers可以分析的复杂样本开始。

示例 4

示例 4 将我们带入更复杂的 SRL 领域。该样本将Alice与动词liked分开,创建了一个长期依赖,必须跳过whose husband went jogging every Sunday.

句子是:

Alice,她的丈夫每个星期天都去慢跑,而她则喜欢在此期间去跳舞课。

一个人可以分离出Alice并找到谓词:

爱丽丝喜欢在此期间去上舞蹈课。

BERT 模型能像我们一样找到谓词吗?

让我们首先在SRL.ipynb中运行代码,看看结果如何:

prediction=predictor.predict(
    sentence="Alice, whose husband went jogging every Sunday, liked to go to a dancing class in the meantime."
)
head(prediction) 

输出确定了每个谓词的动词并标记了每个框架:

Verb: went Alice , [ARG0: whose husband] [V: went] [ARG1: jogging] [ARGM-TMP: every Sunday] , liked to go to a dancing class in the meantime .
Verb: jogging Alice , [ARG0: whose husband] went [V: jogging] [ARGM-TMP: every Sunday] , liked to go to a dancing class in the meantime .
Verb: liked [ARG0: Alice , whose husband went jogging every Sunday] , [V: liked] [ARG1: to go to a dancing class in the meantime] .
Verb: go [ARG0: Alice , whose husband went jogging every Sunday] , liked to [V: go] [ARG4: to a dancing class] [ARGM-TMP: in the meantime] .
Verb: dancing Alice , whose husband went jogging every Sunday , liked to go to a [V: dancing] class in the meantime . 

让我们关注我们感兴趣的部分,看看模型是否找到了谓词。它找到了!它在输出的节选中找到了动词liked,尽管动词likeAlice被另一个谓词隔开:

动词:liked [ARG0: Alice,whose husband went jogging every Sunday]

现在让我们看看在 AllenNLP 的在线 UI 上运行样本后模型分析的视觉表示。转换器首先找到了爱丽丝的丈夫:


图 10.12:谓语“went”已被识别

转换器解释道:

  • 谓语或动词是went
  • whose husband是参数
  • 慢跑是另一个与went相关的参数
  • 每个星期天是一个表示在原始输出中的时间修饰语 [ARGM-TMP: 每个星期天]

然后转换器发现了爱丽丝的丈夫在什么:


图 10.13:动词“慢跑”的 SRL 检测

我们可以看到动词jogging被识别出来并与她的丈夫以及时态修饰语每个星期天相关联。

转换器到此为止。现在它发现了爱丽丝喜欢什么:


图 10.14:识别动词“liked”

转换器还正确地检测和分析了动词go


图 10.15:检测动词“go”,它的参数和修饰语

我们可以看到,时态修饰语与此同时也被识别出来了。考虑到 SRL BERT 训练时的简单序列 + 动词输入,这是相当出色的表现。

最后,转换器确定了最后一个动词dancingclass有关:


图 10.16:将参数“class”与动词“跳舞”相关联

示例 4产生的结果相当令人信服!让我们尝试找到转换器模型的极限。

示例 5

示例 5 不会多次重复动词。但是,示例 5 包含一个具有多种功能和含义的单词。它超越了一词多义,因为单词round可以有不同的含义和语法功能。单词round可以是名词、形容词、副词、及物动词或不及物动词。

作为及物动词或不及物动词,round可以达到完美或完成。在这个意义上,round可以用于off

以下句子使用round的过去式:

明亮的太阳,蓝天,温暖的沙滩,棕榈树,一切都圆满结束。

此谓词中的动词round是“使完美”的意思。当然,最容易理解的语法形式应该是“rounded”。但我们来看看我们的句子会发生什么。

让我们在SRL.ipynb中运行Sample 5

prediction=predictor.predict(
    sentence="The bright sun, the blue sky, the warm sand, the palm trees, everything round off."
)
head(prediction) 

输出显示没有动词。变换器未识别出谓词。实际上,即使我们运行full(prediction)函数时,它也找不到任何动词:

"verbs": [] 

然而,在线版本似乎更好地解释了句子,因为它找到了动词:


图 10.17:检测动词“round”和“everything”作为参数

既然我们喜欢我们的 SRL 变换器,我们会对它友好。我们将向它展示如何处理更常用的动词形式。我们将句子从过去时改为现在时,通过在round后加上s

明亮的阳光,蓝色的天空,温暖的沙滩,棕榈树,一切都 rounds off。

让我们再次尝试用现在时运行SRL.ipynb

prediction=predictor.predict(
    sentence="The bright sun, the blue sky, the warm sand, the palm trees, everything rounds off."
)
head(prediction) 

原始输出显示找到了谓词,如下输出所示:

Verb: rounds [ARG1: The bright sun , the blue sky , the warm sand , the palm trees , everything] [V: rounds] [ARGM-PRD: off] . 

如果我们在 AllenNLP 上运行句子,我们将得到视觉解释:


图 10.18:检测单词“rounds”作为动词

我们基于 BERT 的变换器表现良好,因为单词round在其现在时形式rounds中可以找到。

BERT 模型最初未能产生我们预期的结果。但在它的朋友的一点帮助下,这个样本最终结束得不错。

我们可以看到:

  • 输出可能会随着我们实施的模型版本的演变而有所不同
  • 工业 4.0 的实用主义心态需要更多认知努力来向变换器展示要做什么

让我们尝试另一个难以标记的句子。

样本 6

Sample 6选取了一个我们经常认为只是名词的词。然而,我们怀疑的词比我们想象的更多,可以是名词也可以是动词。例如,to ice是曲棍球中用来将冰球射向整个溜冰场并超出对手球门线的动词。冰球是曲棍球中使用的圆盘。

曲棍球教练可以通过告诉队伍训练冰球来开始一天。然后当教练喊道时,我们可以得到祈使句

现在,让冰球过去,伙计们!

请注意,guys可以表示无论性别的人。

让我们运行Sample 6单元格,看看会发生什么:

prediction=predictor.predict(
    sentence="Now, ice pucks guys!"
)
head(prediction) 

变换器无法找到动词:“verbs”:[]。

游戏结束!我们可以看到变换器已经取得了巨大的进步,但开发人员仍然有很多改进模型的空间。人类仍然在向变换器展示要做什么的游戏中。

在线界面将pucks与动词混淆:


图 10.19:模型错误地将“pucks”标记为动词

这个问题可能会通过另一个模型解决,但你会遇到另一个限制。即使是 GPT-3 也有你必须应对的限制。

当你为一个定制的应用程序实现变换器时,使用专业术语或技术词汇,你会在某个时候达到难以解决的限制。

这些限制将需要您的专业知识来使项目成功。因此,您将不得不创建专门的词典才能在项目中取得成功。这对开发人员来说是个好消息!您将培养新的跨学科和认知技能,您的团队会感激您的。

尝试一些您自己的示例或样本,看看 SRL 如何处理这种方法的限制。然后探索如何开发预处理函数,以向变换器展示如何处理您的定制应用程序。

在我们离开之前,让我们质疑一下 SRL 的动机。

质疑 SRL 的范围

当我们面对现实项目时,我们是孤身一人。我们有一项工作要做,唯一要满足的人是那些要求该项目的人。

实用主义必须放在前面。技术意识随后。

在 20 世纪 20 年代,前人工智能意识和新意识并存。到了十年结束时,只会有一个赢家将前者的部分融合到后者中。

本节质疑了 SRL 的生产力,同时也通过两个方面质疑了其动机:

  • 谓词分析的限制
  • 质疑“语义”一词的使用

谓词分析的限制

SRL 依赖于谓词。只要提供动词,SRL BERT 就能工作。但是数百万句子没有包含动词。

如果你在 AllenNLP 演示界面的语义角色标注部分(demo.allennlp.org/)只提供了 SRL BERT 的断言,它就能工作。

但是,如果你的断言是对问题的回答会发生什么:

  • 人员 1:请问您想喝什么?
  • 人员 2:一杯咖啡,谢谢。

当我们输入人员 2 的答案时,SRL BERT 什么也找不到:


图 10.20:未获得任何帧

输出是0个总帧。由于含有省略号,SRL 无法分析此句。谓词是隐式的,而不是显式的。

省略的定义是省略句子中不必要理解的一个或多个词。

每天都会有数亿句包含省略的句子被口头和书面表达。

然而,对于所有这些句子,SRL BERT 都产生了0 个总帧

下面的回答(A)对以whatwherehow开头的问题(Q)产生了0 个总帧

Q: 早餐想要吃什么?

A: 用热巧克力的薄煎饼。

(模型推断:pancakes=专有名词,with=介词,hot=形容词,chocolate=普通名词。)

Q: 您想去哪里?

A: 请去伦敦。

(模型推断:London=专有名词,please=副词。)

Q: 你今天怎么去上班的?

A: Subway.

(模型推断:subway=专有名词。)

我们可以找到数百万个 SRL BERT 无法理解的例子,因为这些句子不包含谓词。

我们也可以将其应用到对话中间的问题上,但仍然无法从 SRL BERT 获得帧(输出):

场景:对话中段,人 2 不想要咖啡:

Q: 那么,茶呢?

A: 不用了,谢谢。

Q: 好的,热巧克力呢?

A: 没有。

Q: 一杯水?

A: 是的!

我们刚刚看到了一段没有框架、没有语义标注的对话。什么都没有。

我们可以在社交媒体上发布一些电影、音乐会或展览的评论,这些评论不包含任何框架:

  • 有史以来最好的电影!
  • 我一生中最糟糕的音乐会!
  • 精彩的展览!

这一节展示了 SRL 的局限性。现在让我们重新定义 SRL 并展示如何实现它。

重新定义 SRL

SRL BERT 假设句子包含谓词,这在许多情况下是错误的假设。仅基于谓词分析来分析句子是不正确的。

谓词包含一个动词。谓词告诉我们更多关于主语的信息。下面的谓词包含一个动词和额外的信息:

`The dog ate his food quickly.` 

快速吃...告诉我们关于狗吃饭的方式更多的信息。然而,动词本身可以是一个谓词,如:

狗吃。

这里的问题在于“动词”和“谓词”是语法和语法分析的一部分,而不是语义学的一部分。

从语法、功能的角度理解词语如何组合是有限制的。

看这句完全毫无意义的句子:

`Globydisshing maccaked up all the tie.` 

SRL BERT 完美地对一句毫无意义的句子进行“语义”分析:


图 10.21:分析无意义的句子

我们可以从这些例子中得出一些结论:

  • SRL 谓词分析仅在句子中存在动词时才有效
  • SRL(语义角色标注)谓词分析无法识别省略。
  • 谓词和动词是语言结构的一部分,是语法分析的一部分
  • 谓词分析识别结构,但不能理解句子的意义
  • 语法分析远远超出了谓词分析作为句子必要中心的范围

语义学关注短语或句子的意义。语义学关注上下文和词语之间的关系。

语法分析包括句法、屈折和短语或句子中单词的功能。术语“语义角色标注”具有误导性;它应该被命名为“谓词角色标注”。

我们可以完全理解没有谓词并超出顺序结构的句子。

情感分析可以解码句子的含义,并给出输出,而不需要进行谓词分析。情感分析算法完全理解“有史以来最好的电影”是积极的,无论是否存在谓词。

单独使用 SRL 来分析语言是有限制的。将 SRL 与 AI 流水线或其他 AI 工具结合使用可以非常有益,以增加对自然语言理解的智能化。

我建议将 SRL 与其他 AI 工具结合使用,正如我们将在第十三章中看到的,使用 Transformer 分析假新闻

现在让我们总结一下我们对 SRL 的范围和限制的探讨。

摘要

在本章中,我们探讨了 SRL。SRL 任务对人类和机器都很困难。Transformers模型已经显示出在许多 NLP 主题上在一定程度上可以达到人类基线。

我们发现,一个简单的基于 BERT 的Transformers可以执行谓词语义消歧。我们运行了一个简单的Transformers,它可以识别动词(谓词)的含义,而无需词汇或句法标签。Peng ShiJimmy Lin(2019)使用了标准的句子 + 动词输入格式来训练他们的基于 BERT 的Transformers。

我们发现,使用简化的句子 + 谓词输入训练的Transformers可以解决简单和复杂的问题。当我们使用相对罕见的动词形式时,就达到了限制。然而,这些限制并非最终。如果将困难问题添加到训练数据集中,研究团队可以改进模型。

我们还发现了为了人类的利益而存在的 AI。艾伦人工智能研究所已经提供了许多免费的 AI 资源。此外,研究团队还向 NLP 模型的原始输出添加了可视化表示,以帮助用户理解 AI。我们发现解释 AI 与运行程序一样重要。可视化和文本表示提供了对基于 BERT 模型潜力的清晰视图。

最后,我们探讨了 SRL 的范围和限制,以优化我们如何将该方法与其他 AI 工具结合使用。

Transformers将通过其分布式架构和输入格式继续改进 NLP 的标准化。

在下一章,第十一章让您的数据说话:故事、问题和答案中,我们将在通常只有人类表现良好的任务上挑战Transformers。我们将探索当面临命名实体识别NER)和问答任务时,Transformers的潜力。

问题

  1. 语义角色标注SRL)是一个文本生成任务。(真/假)
  2. 谓词是一个名词。(真/假)
  3. 动词是一个谓词。(真/假)
  4. 参数可以描述谁和什么在做某事。(真/假)
  5. 修饰语可以是副词。(真/假)
  6. 修饰语可以是一个地点。(真/假)
  7. 基于 BERT 的模型包含编码器和解码器堆叠。(真/假)
  8. 基于 BERT 的 SRL 模型具有标准的输入格式。(真/假)
  9. Transformers可以解决任何 SRL 任务。(真/假)

参考文献

加入我们书籍的 Discord 空间

加入书籍的 Discord 工作空间,与作者进行每月的问我任何事会话:

www.packt.link/Transformers


第十一章:让你的数据说话:故事、问题和答案

阅读理解需要许多技能。当我们阅读一段文字时,我们注意关键词和主要事件,并创造内容的心理表征。然后我们可以利用我们对内容和表征的知识来回答问题。我们还会检查每个问题,以避免陷阱和错误。

无论它们变得多么强大,Transformers都不能轻松回答开放式问题。开放环境意味着有人可以就任何主题提出任何问题,而Transformers会正确回答。这对于某种程度的 GPT-3 来说是困难的,正如我们将在本章中看到的那样。然而,Transformers通常在封闭的问答环境中使用通用领域训练数据集。例如,在医疗保健和法律解释中的关键性答案通常需要额外的 NLP 功能。

然而,Transformers不能无论训练环境是否闭合都正确回答任何问题。如果一个序列包含多个主语和复合命题,Transformers模型有时会做出错误的预测。

本章将重点介绍构建问题生成器的方法,该生成器利用其他 NLP 任务帮助在文本中找到明确的内容。问题生成器将展示一些应用于实现问答的思想。

我们将首先展示问随机问题并期望Transformers每次都能良好响应的困难程度。

我们将通过引入命名实体识别NER)功能来帮助DistilBERT模型回答问题,该功能建议合理的问题。此外,我们还将为Transformers的问题生成器奠定基础。

我们将把一个预训练为鉴别器的 ELECTRA 模型添加到我们的问答工具箱中。

我们将在文本生成器的蓝图中添加语义角色标注SRL)功能。

然后,下一步部分将提供额外的想法来构建可靠的问答解决方案,包括实现Haystack框架。

最后,我们将直接进入 GPT-3 Davinci 引擎在线界面,探索开放环境下的问答任务。再次强调,无需开发、培训和准备!

在本章结束时,你将看到如何构建自己的多任务 NLP 助手或使用云 AI 进行问答。

本章涵盖以下主题:

  • 随机问答的极限
  • 利用命名实体识别根据实体识别创建有意义的问题
  • 开始设计Transformers问题生成器的蓝图
  • 测试使用 NER 找到的问题
  • 引入预训练为鉴别器的 ELECTRA 编码器
  • 使用标准问题测试 ELECTRA 模型
  • 利用语义角色标注根据谓词识别创建有意义的问题
  • 实施问答Transformers的项目管理指南
  • 分析如何利用 SRL 生成问题
  • 利用 NER 和 SRL 的输出来定义Transformers问题生成器的蓝图
  • 使用 RoBERTa 探索 Haystack 的问答框架
  • 使用 GPT-3 的界面无需开发或准备

让我们首先通过我们将应用的方法来分析问答任务的问题生成过程。

方法论

问答主要是作为一个涉及Transformers和包含准备提问和回答这些问题的数据集的 NLP 练习。Transformers被训练来回答在这个封闭环境中提出的问题。

然而,在更复杂的情况下,可靠的Transformers模型实现需要定制方法。

Transformers和方法

完美和高效的通用Transformers模型,无论是用于问答还是其他 NLP 任务,都不存在。对于一个特定的数据集和任务来说,最适合的模型是产生最佳输出的模型。

该方法在许多情况下优于模型。例如,一个适当的方法通常会比一个优秀模型但有缺陷的方法产生更高效的结果。

在本章中,我们将运行DistilBERTELECTRARoBERTa模型。有些比其他模型有更好的性能

但是,在关键领域中,性能并不保证结果。

例如,在太空火箭和航天器生产项目中,向 NLP 机器人提问意味着获得一个确切的答案。

假设用户需要在一个关于火箭再生式冷却喷嘴和燃烧室状态的一百页报告中提出问题。问题可能很具体,比如冷却状态可靠吗?这是用户从 NLP 机器人那里想要得到的底线信息。

简而言之,让 NLP 机器人、Transformers模型或其他任何东西做一个没有质量和认知控制的统计答案是太冒险了,也不会发生。可信赖的 NLP 机器人将连接到一个包含数据和规则的知识库,以在后台运行基于规则的专家系统来检查 NLP 机器人的答案。NLP Transformers模型机器人将产生一个流畅、可靠的自然语言答案,可能还是人声。

适用于所有需求的通用Transformers模型方法并不存在。每个项目都需要特定的功能和定制的方法,这取决于用户的期望值,变化将是巨大的。

本章将着眼于超出特定Transformers模型选择范围的问答的一般约束。本章不是一个问答项目指南,而是介绍了Transformers如何用于问答。

我们将专注于在没有事先准备的情况下使用问答在开放环境中。Transformers模型需要其他 NLP 任务和经典程序的帮助。我们将探索一些方法,以提供如何组合任务以达到项目目标的想法:

  • Method 0 探索了随机提问的试错方法。
  • Method 1 引入 NER 来帮助准备问答任务。
  • Method 2 尝试使用 ELECTRA Transformers模型来帮助默认Transformers。它还引入了 SRL 来帮助Transformers准备问题。

这三种方法的介绍表明,单一的问答方法对于高调的公司项目不起作用。添加 NER 和 SRL 将提高Transformers代理解决方案的语言智能。

例如,在我最早的一个 AI NLP 项目中,为航空航天公司的防御项目实施问答功能,我结合了不同的 NLP 方法,以确保提供的答案是100%可靠的。

您可以为您实施的每个项目设计一个多方法解决方案。

让我们从试错方法开始。

Transformers 自然语言处理(四)(2)

相关文章
|
7月前
|
存储 人工智能 自然语言处理
Transformers 自然语言处理(五)(2)
Transformers 自然语言处理(五)
84 0
|
7月前
|
存储 自然语言处理 算法
Transformers 自然语言处理(四)(3)
Transformers 自然语言处理(四)
95 0
|
4月前
|
机器学习/深度学习 自然语言处理 PyTorch
PyTorch与Hugging Face Transformers:快速构建先进的NLP模型
【8月更文第27天】随着自然语言处理(NLP)技术的快速发展,深度学习模型已经成为了构建高质量NLP应用程序的关键。PyTorch 作为一种强大的深度学习框架,提供了灵活的 API 和高效的性能,非常适合于构建复杂的 NLP 模型。Hugging Face Transformers 库则是目前最流行的预训练模型库之一,它为 PyTorch 提供了大量的预训练模型和工具,极大地简化了模型训练和部署的过程。
237 2
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
【开源项目】自然语言处理领域的明星项目推荐:Hugging Face Transformers
在当今人工智能与大数据飞速发展的时代,自然语言处理(NLP)已成为推动科技进步的重要力量。而在NLP领域,Hugging Face Transformers无疑是一个备受瞩目的开源项目。本文将从项目介绍、代码解释以及技术特点等角度,为您深入剖析这一热门项目。
82 10
|
5月前
|
自然语言处理 PyTorch API
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformers 自然语言处理(一)(2)
Transformers 自然语言处理(一)
75 3
|
7月前
|
存储 机器学习/深度学习 自然语言处理
Transformers 自然语言处理(一)(3)
Transformers 自然语言处理(一)
73 2
|
7月前
|
机器学习/深度学习 存储 自然语言处理
Transformers 自然语言处理(一)(1)
Transformers 自然语言处理(一)
64 2
|
7月前
|
人工智能 自然语言处理 数据可视化
Transformers 自然语言处理(五)(1)
Transformers 自然语言处理(五)
61 0
|
7月前
|
人工智能 自然语言处理 算法
Transformers 自然语言处理(四)(4)
Transformers 自然语言处理(四)
51 0
下一篇
DataWorks