Transformers 4.37 中文文档(二十二)(1)

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: Transformers 4.37 中文文档(二十二)


原文:huggingface.co/docs/transformers

BARThez

原始文本:huggingface.co/docs/transformers/v4.37.2/en/model_doc/barthez

概述

BARThez 模型是由 Moussa Kamal Eddine、Antoine J.-P. Tixier 和 Michalis Vazirgiannis 于 2020 年 10 月 23 日提出的BARThez: a Skilled Pretrained French Sequence-to-Sequence Model

论文摘要:

归纳传递学习,通过自监督学习实现,已经席卷了整个自然语言处理(NLP)领域,像 BERT 和 BART  这样的模型在无数自然语言理解任务上取得了新的最先进水平。尽管有一些显著的例外,但大多数可用的模型和研究都是针对英语进行的。在这项工作中,我们介绍了  BARThez,这是法语语言的第一个 BART 模型(据我们所知)。BARThez  在过去研究中从一个非常大的单语法语语料库上进行了预训练,我们对其进行了调整以适应 BART 的扰动方案。与已经存在的基于 BERT  的法语语言模型(如 CamemBERT 和 FlauBERT)不同,BARThez  特别适用于生成任务,因为它的编码器和解码器都经过了预训练。除了 FLUE 基准测试中的判别任务,我们还在一个新的摘要数据集 OrangeSum  上评估 BARThez,我们在本文中发布了这个数据集。我们还继续在 BARThez 的语料库上对已经预训练的多语言 BART  进行预训练,并展示了由此产生的模型,我们称之为 mBARTHez,比普通的 BARThez 提供了显著的提升,并且与 CamemBERT 和  FlauBERT 相媲美或者表现更好。

这个模型是由moussakam贡献的。作者的代码可以在这里找到。

BARThez 的实现与 BART 相同,除了标记化。有关配置类及其参数的信息,请参考 BART 文档。BARThez 特定的标记器如下所述。

资源

BarthezTokenizer

class transformers.BarthezTokenizer

< source >

( vocab_file bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' sp_model_kwargs: Optional = None **kwargs )

参数

  • vocab_file (str) — 包含实例化标记器所需词汇表的SentencePiece文件(通常具有*.spm*扩展名)。
  • bos_token (str, 可选,默认为"") — 在预训练期间使用的序列开始标记。可以用作序列分类器标记。
    在构建使用特殊标记的序列时,这不是用于序列开头的标记。使用的标记是cls_token
  • eos_token (str, 可选,默认为"") — 序列结束标记。
    在构建使用特殊标记的序列时,这不是用于序列结尾的标记。使用的标记是sep_token
  • sep_token (str, 可选,默认为"") — 分隔符标记,用于从多个序列构建序列,例如用于序列分类的两个序列或用于文本和问题的问题回答。它也用作使用特殊标记构建的序列的最后一个标记。
  • cls_token (str, 可选,默认为"") — 在进行序列分类(对整个序列而不是每个标记进行分类)时使用的分类器标记。当使用特殊标记构建序列时,它是序列的第一个标记。
  • unk_token (str, 可选,默认为"") — 未知标记。词汇表中没有的标记无法转换为 ID,而是设置为此标记。
  • pad_token (str, optional, 默认为 "") — 用于填充的标记,例如在批处理不同长度的序列时。
  • mask_token (str, optional, 默认为 "") — 用于屏蔽值的标记。在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • sp_model_kwargs (dict, optional) — 将传递给SentencePieceProcessor.__init__()方法。SentencePiece 的 Python 包装器可用于设置:
  • enable_sampling: 启用子词正则化。
  • nbest_size: unigram 采样参数。对于 BPE-Dropout 无效。
  • nbest_size = {0,1}: 不执行采样。
  • nbest_size > 1: 从 nbest_size 结果中进行采样。
  • nbest_size < 0: 假设 nbest_size 为无限,并使用前向过滤和后向采样算法从所有假设(格)中进行采样。
  • alpha: 用于 unigram 采样的平滑参数,以及 BPE-dropout 的合并操作的丢弃概率。
  • sp_model (SentencePieceProcessor) — 用于每次转换(字符串、标记和 ID)的SentencePiece处理器。

改编自 CamembertTokenizer 和 BartTokenizer。构建一个 BARThez 标记器。基于SentencePiece

此标记器继承自 PreTrainedTokenizer,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< source >

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — 将添加特殊标记的 ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

具有适当特殊标记的 input IDs 列表。

通过连接和添加特殊标记从序列或序列对构建用于序列分类任务的模型输入。BARThez 序列具有以下格式:

  • 单个序列: X
  • 一对序列: A B
convert_tokens_to_string

< source >

( tokens )

将一系列标记(字符串)转换为单个字符串。

create_token_type_ids_from_sequences

< source >

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

零的列表。

从传递的两个序列创建一个用于序列对分类任务的掩码。

get_special_tokens_mask

< source >

( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。
  • already_has_special_tokens (bool, optional, 默认为 False) — 标记列表是否已经使用特殊标记格式化为模型。

返回

List[int]

一个整数列表,范围为[0, 1]:特殊标记为 1,序列标记为 0。

从没有添加特殊标记的标记列表中检索序列 ID。在使用标记器的prepare_for_model方法添加特殊标记时调用此方法。

BarthezTokenizerFast

class transformers.BarthezTokenizerFast

< source >

( vocab_file = None tokenizer_file = None bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' **kwargs )

参数

  • vocab_file (str) — 包含实例化分词器所需词汇表的SentencePiece文件(通常具有*.spm*扩展名)。
  • bos_token (str, optional, defaults to "") — 在预训练期间使用的序列开头标记。可用作序列分类器标记。
    在使用特殊标记构建序列时,这不是用于序列开头的标记。用于开头的标记是cls_token
  • eos_token (str, optional, defaults to "") — 序列结束标记。
    在使用特殊标记构建序列时,这不是用于序列结尾的标记。用于结尾的标记是sep_token
  • sep_token (str, optional, defaults to "") — 分隔符标记,在从多个序列构建序列时使用,例如用于序列分类的两个序列或用于文本和问题的问题回答。它还用作使用特殊标记构建的序列的最后一个标记。
  • cls_token (str, optional, defaults to "") — 在进行序列分类(整个序列的分类而不是每个标记的分类)时使用的分类器标记。当使用特殊标记构建序列时,它是序列的第一个标记。
  • unk_token (str, optional, defaults to "") — 未知标记。词汇表中不存在的标记无法转换为 ID,而是设置为此标记。
  • pad_token (str, optional, defaults to "") — 用于填充的标记,例如在批处理不同长度的序列时使用。
  • mask_token (str, optional, defaults to "") — 用于屏蔽值的标记。在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • additional_special_tokens (List[str], optional, defaults to ["NOTUSED", "NOTUSED"]) — 分词器使用的其他特殊标记。

改编自 CamembertTokenizer 和 BartTokenizer。构建一个“快速”BARThez 分词器。基于SentencePiece

此分词器继承自 PreTrainedTokenizerFast,其中包含大部分主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< source >

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — 将添加特殊标记的 ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

带有适当特殊标记的输入 ID 列表。

通过连接和添加特殊标记构建用于序列分类任务的序列或序列对的模型输入。BARThez 序列具有以下格式:

  • 单个序列: X
  • 序列对: A B
create_token_type_ids_from_sequences

< source >

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

零的列表。

从传递的两个序列创建一个用于序列对分类任务的掩码。

BARTpho

原始文本: huggingface.co/docs/transformers/v4.37.2/en/model_doc/bartpho

概述

BARTpho 模型是由 Nguyen Luong Tran, Duong Minh Le 和 Dat Quoc Nguyen 在《BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese》中提出的。

论文摘要如下:

我们提供了两个版本的 BARTpho — BARTpho_word 和 BARTpho_syllable —  这是为越南语预训练的首个公开大规模单语序列到序列模型。我们的 BARTpho 使用了 BART  序列到序列去噪模型的“large”架构和预训练方案,因此特别适用于生成式 NLP  任务。在越南语文本摘要的下游任务上的实验表明,在自动和人工评估中,我们的 BARTpho 优于强基线 mBART,并改进了最新技术。我们发布  BARTpho 以促进未来的生成式越南语 NLP 任务的研究和应用。

这个模型是由dqnguyen贡献的。原始代码可以在这里找到。

用法示例

>>> import torch
>>> from transformers import AutoModel, AutoTokenizer
>>> bartpho = AutoModel.from_pretrained("vinai/bartpho-syllable")
>>> tokenizer = AutoTokenizer.from_pretrained("vinai/bartpho-syllable")
>>> line = "Chúng tôi là những nghiên cứu viên."
>>> input_ids = tokenizer(line, return_tensors="pt")
>>> with torch.no_grad():
...     features = bartpho(**input_ids)  # Models outputs are now tuples
>>> # With TensorFlow 2.0+:
>>> from transformers import TFAutoModel
>>> bartpho = TFAutoModel.from_pretrained("vinai/bartpho-syllable")
>>> input_ids = tokenizer(line, return_tensors="tf")
>>> features = bartpho(**input_ids)

用法提示

  • 与 mBART 一样,BARTpho 使用 BART  的“large”架构,并在编码器和解码器的顶部增加了一个额外的层归一化层。因此,在 BART 文档中的用法示例,在适应 BARTpho  时,应通过用 mBART 专用类替换 BART 专用类来进行调整。例如:
>>> from transformers import MBartForConditionalGeneration
>>> bartpho = MBartForConditionalGeneration.from_pretrained("vinai/bartpho-syllable")
>>> TXT = "Chúng tôi là <mask> nghiên cứu viên."
>>> input_ids = tokenizer([TXT], return_tensors="pt")["input_ids"]
>>> logits = bartpho(input_ids).logits
>>> masked_index = (input_ids[0] == tokenizer.mask_token_id).nonzero().item()
>>> probs = logits[0, masked_index].softmax(dim=0)
>>> values, predictions = probs.topk(5)
>>> print(tokenizer.decode(predictions).split())
  • 这个实现仅用于标记化:“monolingual_vocab_file”包含从多语言 XLM-RoBERTa 的预训练  SentencePiece 模型“vocab_file”中提取的越南语专用类型。其他语言,如果使用这个预训练的多语言 SentencePiece  模型“vocab_file”进行子词分割,可以重用 BartphoTokenizer  与自己的语言专用“monolingual_vocab_file”。

BartphoTokenizer

class transformers.BartphoTokenizer

< source >

( vocab_file monolingual_vocab_file bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' sp_model_kwargs: Optional = None **kwargs )

参数

  • vocab_file (str) — 词汇文件的路径。这个词汇是来自多语言 XLM-RoBERTa 的预训练 SentencePiece 模型,也被 mBART 使用,包含 250K 种类型。
  • monolingual_vocab_file (str) — 单语词汇文件的路径。这个单语词汇包含从 250K 种类型的多语言词汇vocab_file中提取的越南语专用类型。
  • bos_token (str, 可选, 默认为 "") — 在预训练期间使用的序列开始标记。可以用作序列分类器标记。
    在构建序列时使用特殊标记时,这不是用于序列开头的标记。使用的标记是cls_token
  • eos_token (str, 可选, 默认为 "") — 序列结束标记。
    在构建序列时使用特殊标记时,这不是用于序列结尾的标记。使用的标记是sep_token
  • sep_token (str, 可选, 默认为 "") — 分隔符标记,用于从多个序列构建序列,例如用于序列分类的两个序列或用于文本和问题的问题回答。它也用作使用特殊标记构建的序列的最后一个标记。
  • cls_token (str, 可选, 默认为 "") — 用于进行序列分类(对整个序列而不是每个标记进行分类)时使用的分类器标记。在使用特殊标记构建序列时,它是序列的第一个标记。
  • unk_token (str, 可选, 默认为 "") — 未知标记。词汇中不存在的标记无法转换为 ID,而是设置为此标记。
  • pad_tokenstr可选,默认为"")- 用于填充的标记,例如在批处理不同长度的序列时。
  • mask_tokenstr可选,默认为"")- 用于屏蔽值的标记。这是在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • sp_model_kwargsdict可选)- 将传递给SentencePieceProcessor.__init__()方法。SentencePiece 的 Python 包装器可用于设置:
  • enable_sampling:启用子词正则化。
  • nbest_size:unigram 的抽样参数。对于 BPE-Dropout 无效。
  • nbest_size = {0,1}:不执行抽样。
  • nbest_size > 1:从 nbest_size 结果中抽样。
  • nbest_size < 0: 假设 nbest_size 是无限的,并使用前向过滤和后向抽样算法从所有假设(格子)中抽样。
  • alpha:unigram 抽样的平滑参数,以及 BPE-dropout 合并操作的丢失概率。
  • sp_modelSentencePieceProcessor)- 用于每次转换(字符串、标记和 ID)的SentencePiece处理器。

改编自 XLMRobertaTokenizer。基于SentencePiece

此标记器继承自 PreTrainedTokenizer,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

<来源>

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0List[int])- 将添加特殊标记的 ID 列表。
  • token_ids_1List[int]可选)- 序列对的可选第二个 ID 列表。

返回

List[int]

具有适当特殊标记的 input IDs 列表。

通过连接和添加特殊标记构建用于序列分类任务的序列或序列对的模型输入。BARTPho 序列的格式如下:

  • 单个序列: X
  • 序列对: A B
convert_tokens_to_string

<来源>

( tokens )

将一系列标记(子词的字符串)转换为单个字符串。

create_token_type_ids_from_sequences

<来源>

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0List[int])- ID 列表。
  • token_ids_1List[int]可选)- 序列对的可选第二个 ID 列表。

返回

List[int]

零的列表。

从传递的两个序列创建一个用于序列对分类任务的掩码。BARTPho 不使用标记类型 ID,因此返回一个零的列表。

get_special_tokens_mask

<来源>

( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0List[int])- ID 列表。
  • token_ids_1List[int]可选)- 序列对的可选第二个 ID 列表。
  • already_has_special_tokensbool可选,默认为False)- 标记列表是否已经格式化为模型的特殊标记。

返回

List[int]

一个整数列表,范围为[0, 1]:1 表示特殊标记,0 表示序列标记。

从没有添加特殊标记的标记列表中检索序列 ID。在使用标记器prepare_for_model方法添加特殊标记时调用此方法。

BERT

原始文本:huggingface.co/docs/transformers/v4.37.2/en/model_doc/bert

概述

BERT 模型是由 Jacob Devlin、Ming-Wei Chang、Kenton Lee 和 Kristina Toutanova 在BERT:用于语言理解的深度双向 Transformer 的预训练中提出的。它是一个双向 Transformer,在大型语料库(包括多伦多书籍语料库和维基百科)上使用掩码语言建模目标和下一个句子预测进行预训练。

论文的摘要如下:

我们介绍了一种名为 BERT 的新语言表示模型,它代表双向编码器从变压器中获得的表示。与最近的语言表示模型不同,BERT  旨在通过在所有层中联合调节左右上下文来预训练深度双向表示,从未标记的文本中。因此,预训练的 BERT  模型只需一个额外的输出层就可以进行微调,从而创建用于各种任务的最先进模型,例如问答和语言推理,而无需进行实质性的任务特定架构修改。

BERT 在概念上简单且在经验上强大。它在十一个自然语言处理任务中取得了新的最先进结果,包括将 GLUE 得分提高到  80.5%(绝对改进 7.7 个百分点),MultiNLI 准确率提高到 86.7%(绝对改进 4.6%),SQuAD v1.1 问答测试 F1  提高到 93.2(绝对改进 1.5 个百分点)和 SQuAD v2.0 测试 F1 提高到 83.1(绝对改进 5.1 个百分点)。

此模型由thomwolf贡献。原始代码可以在这里找到。

使用提示

  • BERT 是一个带有绝对位置嵌入的模型,因此通常建议在右侧而不是左侧填充输入。
  • BERT 是通过掩码语言建模(MLM)和下一个句子预测(NSP)目标进行训练的。它在预测掩码令牌和 NLU 方面效率高,但不适用于文本生成。
  • 使用随机掩码破坏输入,更准确地说,在预训练期间,给定的令牌百分比(通常为 15%)被掩盖:
  • 具有概率 0.8 的特殊掩码令牌
  • 与被掩盖的令牌不同的随机令牌的概率为 0.1
  • 具有概率 0.1 的相同令牌
  • 模型必须预测原始句子,但有第二个目标:输入是两个句子 A 和 B(中间有一个分隔令牌)。以 50%的概率,这些句子在语料库中是连续的,在剩下的 50%中它们不相关。模型必须预测这些句子是否连续。

资源

一份官方 Hugging Face 和社区(由🌎表示)资源列表,可帮助您开始使用 BERT。如果您有兴趣提交资源以包含在此处,请随时打开一个 Pull Request,我们将对其进行审查!资源应该理想地展示一些新内容,而不是重复现有资源。

文本分类

标记分类

填充掩码

问答

多项选择

⚡️ 推理

  • 一篇关于如何使用 Hugging Face Transformers 和 AWS Inferentia 加速 BERT 推理的博文。
  • 一篇关于如何使用 DeepSpeed-Inference 在 GPU 上加速 BERT 推理的博文。

⚙️ 预训练

  • 一篇关于如何使用 Hugging Face Transformers 和 Habana Gaudi 进行 BERT 预训练的博文。

🚀 部署

BertConfig

class transformers.BertConfig

<来源>

( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 pad_token_id = 0 position_embedding_type = 'absolute' use_cache = True classifier_dropout = None **kwargs )

参数

  • vocab_size (int, optional, defaults to 30522) — BERT 模型的词汇表大小。定义了在调用 BertModel 或 TFBertModel 时可以表示的不同标记数量。
  • hidden_size (int, optional, defaults to 768) — 编码器层和池化器层的维度。
  • num_hidden_layers (int, optional, defaults to 12) — Transformer 编码器中的隐藏层数量。
  • num_attention_heads (int, optional, defaults to 12) — Transformer 编码器中每个注意力层的注意力头数。
  • intermediate_size (int, optional, defaults to 3072) — Transformer 编码器中“中间”(通常称为前馈)层的维度。
  • hidden_act (str or Callable, optional, defaults to "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果是字符串,支持"gelu""relu""silu""gelu_new"
  • hidden_dropout_prob (float, optional, defaults to 0.1) — 嵌入层、编码器和池化器中所有全连接层的丢弃概率。
  • attention_probs_dropout_prob (float, optional, defaults to 0.1) — 注意力概率的丢弃比例。
  • max_position_embeddings (int, optional, defaults to 512) — 该模型可能使用的最大序列长度。通常设置为一个较大的值(例如 512、1024 或 2048)以防万一。
  • type_vocab_size (int, optional, defaults to 2) — 在调用 BertModel 或 TFBertModel 时传递的token_type_ids的词汇表大小。
  • initializer_range (float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float, optional, defaults to 1e-12) — 层归一化层使用的 epsilon。
  • position_embedding_type (str, optional, defaults to "absolute") — 位置嵌入的类型。选择"absolute""relative_key""relative_key_query"之一。对于位置嵌入,请使用"absolute"。有关"relative_key"的更多信息,请参考Self-Attention with Relative Position Representations (Shaw et al.)。有关"relative_key_query"的更多信息,请参考Improve Transformer Models with Better Relative Position Embeddings (Huang et al.)中的Method 4
  • is_decoder (bool, optional, defaults to False) — 模型是否用作解码器。如果为False,则模型用作编码器。
  • use_cache (bool, optional, defaults to True) — 模型是否应返回最后的键/值注意力(并非所有模型都使用)。仅在config.is_decoder=True时相关。
  • classifier_dropout (float, optional) — 分类头的丢弃比例。

这是用于存储 BertModel 或 TFBertModel 配置的配置类。它用于根据指定的参数实例化 BERT 模型,定义模型架构。使用默认值实例化配置将产生类似于 BERT bert-base-uncased架构的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读来自 PretrainedConfig 的文档以获取更多信息。

示例:

>>> from transformers import BertConfig, BertModel
>>> # Initializing a BERT bert-base-uncased style configuration
>>> configuration = BertConfig()
>>> # Initializing a model (with random weights) from the bert-base-uncased style configuration
>>> model = BertModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config

BertTokenizer

class transformers.BertTokenizer

< source >

( vocab_file do_lower_case = True do_basic_tokenize = True never_split = None unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )

参数

  • vocab_file (str) — 包含词汇表的文件。
  • do_lower_case (bool可选,默认为True) — 是否在分词时将输入转换为小写。
  • do_basic_tokenize (bool可选,默认为True) — 是否在 WordPiece 之前进行基本分词。
  • never_split (Iterable可选) — 在分词过程中永远不会分割的标记集合。仅在do_basic_tokenize=True时有效。
  • unk_token (str可选,默认为"[UNK]") — 未知标记。词汇表中不存在的标记无法转换为 ID,而是设置为此标记。
  • sep_token (str可选,默认为"[SEP]") — 分隔符标记,用于从多个序列构建序列,例如用于序列分类的两个序列或用于文本和问题的问题回答。它还用作带有特殊标记构建的序列的最后一个标记。
  • pad_token (str可选,默认为"[PAD]") — 用于填充的标记,例如在批处理不同长度的序列时使用。
  • cls_token (str可选,默认为"[CLS]") — 分类器标记,用于进行序列分类(对整个序列而不是每个标记进行分类)。构建带有特殊标记的序列时,它是序列的第一个标记。
  • mask_token (str可选,默认为"[MASK]") — 用于屏蔽值的标记。这是在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • tokenize_chinese_chars (bool可选,默认为True) — 是否对中文字符进行分词。
    这可能应该对日语停用(请参阅此问题)。
  • strip_accents (bool可选) — 是否去除所有重音符号。如果未指定此选项,则将由lowercase的值确定(与原始 BERT 相同)。

构建一个基于 WordPiece 的 BERT 分词器。

这个分词器继承自 PreTrainedTokenizer,其中包含大部分主要方法。用户应参考这个超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< source >

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — 将添加特殊标记的 ID 列表。
  • token_ids_1 (List[int]可选) — 序列对的可选第二个 ID 列表。

返回

List[int]

具有适当特殊标记的输入 ID 列表。

通过连接和添加特殊标记,为序列分类任务构建模型输入的序列或序列对。BERT 序列的格式如下:

  • 单个序列:[CLS] X [SEP]
  • 一对序列:[CLS] A [SEP] B [SEP]
get_special_tokens_mask

<来源>

( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0List[int])— ID 列表。
  • token_ids_1List[int]可选)— 序列对的可选第二个 ID 列表。
  • already_has_special_tokensbool可选,默认为False)— 标记列表是否已经使用特殊标记格式化为模型。

返回

List[int]

一个整数列表,范围为[0, 1]:1 表示特殊标记,0 表示序列标记。

从没有添加特殊标记的标记列表中检索序列 ID。当使用标记器的prepare_for_model方法添加特殊标记时,会调用此方法。

create_token_type_ids_from_sequences

<来源>

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0List[int])— ID 列表。
  • token_ids_1List[int]可选)— 序列对的可选第二个 ID 列表。

返回

List[int]

根据给定序列的标记类型 ID 列表。

从传递的两个序列创建一个掩码,用于在序列对分类任务中使用。BERT 序列

一对掩码的格式如下:

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果token_ids_1None,则此方法仅返回掩码的第一部分(0s)。

save_vocabulary

<来源>

( save_directory: str filename_prefix: Optional = None )

PytorchHide Pytorch 内容

BertTokenizerFast

class transformers.BertTokenizerFast

<来源>

( vocab_file = None tokenizer_file = None do_lower_case = True unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )

参数

  • vocab_filestr)— 包含词汇表的文件。
  • do_lower_casebool可选,默认为True)— 在标记化时是否将输入转换为小写。
  • unk_tokenstr可选,默认为"[UNK]")— 未知标记。词汇表中不存在的标记无法转换为 ID,而是设置为此标记。
  • sep_tokenstr可选,默认为"[SEP]")— 用于从多个序列构建序列时使用的分隔符标记,例如用于序列分类的两个序列或用于问题回答的文本和问题。它还用作使用特殊标记构建的序列的最后一个标记。
  • pad_tokenstr可选,默认为"[PAD]")— 用于填充的标记,例如在批处理不同长度的序列时。
  • cls_tokenstr可选,默认为"[CLS]")— 在进行序列分类(整个序列的分类而不是每个标记的分类)时使用的分类器标记。这是使用特殊标记构建时的序列的第一个标记。
  • mask_tokenstr可选,默认为"[MASK]")— 用于屏蔽值的标记。这是在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • clean_textbool可选,默认为True)— 在标记化之前是否清理文本,通过删除任何控制字符并将所有空格替换为经典空格。
  • tokenize_chinese_charsbool可选,默认为True)— 是否标记化中文字符。这可能应该在日语中停用(参见此问题)。
  • strip_accentsbool可选)— 是否去除所有重音符号。如果未指定此选项,则将由lowercase的值确定(与原始 BERT 相同)。
  • wordpieces_prefix (str, optional, defaults to "##") — 子词的前缀。

构建一个“快速”BERT 分词器(由 HuggingFace 的 tokenizers 库支持)。基于 WordPiece。

此分词器继承自 PreTrainedTokenizerFast,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

<来源>

( token_ids_0 token_ids_1 = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — 要添加特殊标记的 ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

具有适当特殊标记的 输入 ID 列表。

通过连接和添加特殊标记从序列或序列对构建用于序列分类任务的模型输入。BERT 序列的格式如下:

  • 单个序列:[CLS] X [SEP]
  • 序列对:[CLS] A [SEP] B [SEP]
create_token_type_ids_from_sequences

<来源>

( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]

参数

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 序列对的可选第二个 ID 列表。

返回

List[int]

根据给定序列的 token type IDs 列表。

从传递的两个序列创建用于序列对分类任务中使用的掩码。BERT 序列

序列对掩码的格式如下:

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1None,此方法仅返回掩码的第一部分(0s)。

TensorFlow 隐藏 TensorFlow 内容

TFBertTokenizer

class transformers.TFBertTokenizer

<来源>

( vocab_list: List do_lower_case: bool cls_token_id: int = None sep_token_id: int = None pad_token_id: int = None padding: str = 'longest' truncation: bool = True max_length: int = 512 pad_to_multiple_of: int = None return_token_type_ids: bool = True return_attention_mask: bool = True use_fast_bert_tokenizer: bool = True **tokenizer_kwargs )

参数

  • vocab_list (list) — 包含词汇表的列表。
  • do_lower_case (bool, optional, defaults to True) — 在分词时是否将输入转换为小写。
  • cls_token_id (str, optional, defaults to "[CLS]") — 在进行序列分类(整个序列而不是每个标记的分类)时使用的分类器标记。当使用特殊标记构建序列时,它是序列的第一个标记。
  • sep_token_id (str, optional, defaults to "[SEP]") — 分隔符标记,在从多个序列构建序列时使用,例如用于序列分类的两个序列或用于文本和问题的问题回答。它也用作使用特殊标记构建的序列的最后一个标记。
  • pad_token_id (str, optional, defaults to "[PAD]") — 用于填充的标记,例如在批处理不同长度的序列时使用。
  • padding (str, defaults to "longest") — 要使用的填充类型。可以是 "longest",仅填充到批处理中最长样本的长度,或者 "max_length",将所有输入填充到分词器支持的最大长度。
  • truncation (bool, optional, defaults to True) — 是否将序列截断到最大长度。
  • max_length (int, optional, defaults to 512) — 序列的最大长度,用于填充(如果 padding"max_length")和/或截断(如果 truncationTrue)。
  • pad_to_multiple_of (int, optional, defaults to None) — 如果设置,序列将填充到此值的倍数。
  • return_token_type_ids (bool, optional, defaults to True) — 是否返回 token_type_ids。
  • return_attention_mask (bool, optional, defaults to True) — 是否返回 attention_mask。
  • use_fast_bert_tokenizerbool可选,默认为True)-如果为 True,将使用来自 Tensorflow Text 的 FastBertTokenizer 类。如果为 False,将使用 BertTokenizer 类。BertTokenizer 支持一些额外选项,但速度较慢且无法导出到 TFLite。

这是 BERT 的图内标记器。它应该类似于其他标记器进行初始化,使用from_pretrained()方法。也可以使用from_tokenizer()方法进行初始化,该方法从现有的标准标记器对象导入设置。

与其他 Hugging Face 标记器不同,图内标记器实际上是 Keras 层,设计为在调用模型时运行,而不是在预处理期间运行。因此,它们的选项比标准标记器类有些受限。当您想要创建一个直接从tf.string输入到输出的端到端模型时,它们是最有用的。

from_pretrained

<来源>

( pretrained_model_name_or_path: Union *init_inputs **kwargs )

参数

  • pretrained_model_name_or_pathstros.PathLike)-预训练标记器的名称或路径。

从预训练标记器实例化一个TFBertTokenizer

示例:

from transformers import TFBertTokenizer
tf_tokenizer = TFBertTokenizer.from_pretrained("bert-base-uncased")
from_tokenizer

<来源>

( tokenizer: PreTrainedTokenizerBase **kwargs )

参数

  • tokenizerPreTrainedTokenizerBase)-用于初始化TFBertTokenizer的标记器。

从现有的Tokenizer初始化一个TFBertTokenizer

示例:

from transformers import AutoTokenizer, TFBertTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
tf_tokenizer = TFBertTokenizer.from_tokenizer(tokenizer)

BERT 特定的输出

class transformers.models.bert.modeling_bert.BertForPreTrainingOutput

<来源>

( loss: Optional = None prediction_logits: FloatTensor = None seq_relationship_logits: FloatTensor = None hidden_states: Optional = None attentions: Optional = None )

参数

  • loss可选,在提供labels时返回,形状为(1,)torch.FloatTensor)-作为掩码语言建模损失和下一个序列预测(分类)损失之和的总损失。
  • prediction_logits(形状为(batch_size, sequence_length, config.vocab_size)torch.FloatTensor)-语言建模头的预测分数(SoftMax 之前每个词汇标记的分数)。
  • seq_relationship_logits(形状为(batch_size, 2)torch.FloatTensor)-下一个序列预测(分类)头的预测分数(SoftMax 之前的 True/False 连续分数)。
  • hidden_statestuple(torch.FloatTensor)可选,当传递output_hidden_states=Trueconfig.output_hidden_states=True时返回)-形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入的输出,一个用于每一层的输出)。
    模型在每一层输出的隐藏状态加上初始嵌入输出。
  • attentionstuple(torch.FloatTensor)可选,当传递output_attentions=Trueconfig.output_attentions=True时返回)-形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每层一个)。
    在注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

BertForPreTraining 的输出类型。

class transformers.models.bert.modeling_tf_bert.TFBertForPreTrainingOutput

<来源>

( loss: tf.Tensor | None = None prediction_logits: tf.Tensor = None seq_relationship_logits: tf.Tensor = None hidden_states: Optional[Union[Tuple[tf.Tensor], tf.Tensor]] = None attentions: Optional[Union[Tuple[tf.Tensor], tf.Tensor]] = None )

参数

  • prediction_logits(形状为(batch_size, sequence_length, config.vocab_size)tf.Tensor)-语言建模头的预测分数(SoftMax 之前每个词汇标记的分数)。
  • seq_relationship_logits(形状为(batch_size, 2)tf.Tensor)-下一个序列预测(分类)头的预测分数(SoftMax 之前的 True/False 连续分数)。
  • hidden_states (tuple(tf.Tensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每个层的输出)。
    模型在每个层的输出以及初始嵌入输出的隐藏状态。
  • attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)tf.Tensor 元组(每个层一个)。
    自注意力头中的注意力 softmax 后的注意力权重,用于计算加权平均值。

TFBertForPreTraining 的输出类型。

class transformers.models.bert.modeling_flax_bert.FlaxBertForPreTrainingOutput

< source >

( prediction_logits: Array = None seq_relationship_logits: Array = None hidden_states: Optional = None attentions: Optional = None )

参数

  • prediction_logits (形状为 (batch_size, sequence_length, config.vocab_size)jnp.ndarray`) — 语言建模头的预测分数(SoftMax 之前的每个词汇标记的分数)。
  • seq_relationship_logits (形状为 (batch_size, 2)jnp.ndarray`) — 下一个序列预测(分类)头的预测分数(SoftMax 之前的 True/False 连续性分数)。
  • hidden_states (tuple(jnp.ndarray), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)jnp.ndarray 元组(一个用于嵌入的输出 + 一个用于每个层的输出)。
    模型在每个层的输出以及初始嵌入输出的隐藏状态。
  • attentions (tuple(jnp.ndarray), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)jnp.ndarray 元组(每个层一个)。
    自注意力头中的注意力 softmax 后的注意力权重,用于计算加权平均值。

BertForPreTraining 的输出类型。

replace

< source >

( **updates )

“返回一个用新值替换指定字段的新对象。

Pytorch 隐藏 Pytorch 内容

BertModel

class transformers.BertModel

< source >

( config add_pooling_layer = True )

参数

  • config (BertConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只加载配置。查看 from_pretrained() 方法以加载模型权重。

裸的 Bert 模型变压器输出原始隐藏状态,没有特定的头部。

此模型继承自 PreTrainedModel。查看超类文档以了解库为所有模型实现的通用方法(如下载或保存、调整输入嵌入、修剪头等)。

此模型还是一个 PyTorch torch.nn.Module 子类。将其用作常规的 PyTorch 模块,并参考 PyTorch 文档以了解所有与一般用法和行为相关的事项。

该模型可以作为编码器(仅具有自注意力)以及解码器运行,此时在自注意力层之间添加了一层交叉注意力,遵循 Attention is all you need 中描述的架构,作者为 Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser 和 Illia Polosukhin。

为了作为解码器行为,模型需要使用配置中设置为 Trueis_decoder 参数进行初始化。要在 Seq2Seq 模型中使用,模型需要使用 is_decoder 参数和 add_cross_attention 设置为 True 进行初始化;然后期望将 encoder_hidden_states 作为输入传递给前向传递。

forward

< source >

( input_ids: Optional = None attention_mask: Optional = None token_type_ids: Optional = None position_ids: Optional = None head_mask: Optional = None inputs_embeds: Optional = None encoder_hidden_states: Optional = None encoder_attention_mask: Optional = None past_key_values: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。
    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
    什么是输入 ID?
  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在填充标记索引上执行注意力的蒙版。蒙版值在 [0, 1] 中选择:
  • 1 用于未被 masked 的标记,
  • 0 用于被 masked 的标记。
  • 什么是注意力蒙版?
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 段标记索引,指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:
  • 0 对应于一个 句子 A 的标记,
  • 1 对应于一个 句子 B 的标记。
  • 什么是标记类型 ID?
  • position_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 每个输入序列标记在位置嵌入中的位置索引。在范围 [0, config.max_position_embeddings - 1] 中选择。
    什么是位置 ID?
  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于使自注意力模块中选择的头部失效的蒙版。蒙版值在 [0, 1] 中选择:
  • 1 表示头部未被 masked
  • 0 表示头部被 masked
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您想要更多控制如何将 input_ids 索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。
  • encoder_hidden_states (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 编码器最后一层的隐藏状态序列。如果模型配置为解码器,则在交叉注意力中使用。
  • encoder_attention_mask (torch.FloatTensor of shape (batch_size, sequence_length), optional) — 用于避免对编码器输入的填充标记索引执行注意力的掩码。如果模型配置为解码器,则此掩码用于交叉注意力。掩码值选择在[0, 1]中。
  • 对于未被masked的标记为 1,
  • 对于被masked的标记为 0。
  • past_key_values (tuple(tuple(torch.FloatTensor)),长度为config.n_layers,每个元组有 4 个形状为(batch_size, num_heads, sequence_length - 1, embed_size_per_head)的张量) — 包含注意力块的预计算键和值隐藏状态。可用于加速解码。
    如果使用past_key_values,用户可以选择仅输入最后的decoder_input_ids(那些没有将其过去的键值状态提供给此模型的)的形状为(batch_size, 1)的张量,而不是所有形状为(batch_size, sequence_length)decoder_input_ids
  • use_cache (bool, optional) — 如果设置为True,则返回past_key_values键值状态,可用于加速解码(参见past_key_values)。

返回

transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或tuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或一个torch.FloatTensor元组(如果传递return_dict=False或当config.return_dict=False时)包含根据配置(BertConfig)和输入的不同元素。

  • last_hidden_state (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size)) — 模型最后一层的隐藏状态的序列。
  • pooler_output (torch.FloatTensor of shape (batch_size, hidden_size)) — 序列第一个标记(分类标记)的最后一层隐藏状态,在通过用于辅助预训练任务的层进一步处理后。例如,对于 BERT 系列模型,这返回经过线性层和 tanh 激活函数处理后的分类标记。线性层权重是从预训练期间的下一个句子预测(分类)目标中训练的。
  • hidden_states (tuple(torch.FloatTensor), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — Tuple of torch.FloatTensor (one for the output of the embeddings, if the model has an embedding layer, + one for the output of each layer) of shape (batch_size, sequence_length, hidden_size)
    模型在每一层输出的隐藏状态以及可选的初始嵌入输出。
  • attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — Tuple of torch.FloatTensor (one for each layer) of shape (batch_size, num_heads, sequence_length, sequence_length)
    在自注意力头中用于计算加权平均值的注意力 softmax 之后的注意力权重。
  • cross_attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True and config.add_cross_attention=True is passed or when config.output_attentions=True) — Tuple of torch.FloatTensor (one for each layer) of shape (batch_size, num_heads, sequence_length, sequence_length)
    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。
  • past_key_values (tuple(tuple(torch.FloatTensor)), optional, 当传递use_cache=Trueconfig.use_cache=True时返回) — 长度为config.n_layers的元组,每个元组有 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)的张量,如果config.is_encoder_decoder=True,还有 2 个额外的形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)的张量。
    包含预先计算的隐藏状态(自注意力块中的键和值,以及如果config.is_encoder_decoder=True,则包含交叉注意力块中的隐藏状态),可以用于加速顺序解码(查看past_key_values输入)。

BertModel 的前向方法,覆盖了__call__特殊方法。

虽然前向传递的步骤需要在这个函数内定义,但应该在此之后调用Module实例,而不是这个函数,因为前者会处理运行前后的处理步骤,而后者会默默地忽略它们。

示例:

>>> from transformers import AutoTokenizer, BertModel
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
>>> model = BertModel.from_pretrained("bert-base-uncased")
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)
>>> last_hidden_states = outputs.last_hidden_state


Transformers 4.37 中文文档(二十二)(2)https://developer.aliyun.com/article/1563603

相关文章
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(二十六)(4)
Transformers 4.37 中文文档(二十六)
32 1
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(二十六)(3)
Transformers 4.37 中文文档(二十六)
25 0
|
4月前
|
PyTorch 算法框架/工具 异构计算
Transformers 4.37 中文文档(二十二)(4)
Transformers 4.37 中文文档(二十二)
23 3
|
4月前
|
文字识别 PyTorch TensorFlow
Transformers 4.37 中文文档(十七)(5)
Transformers 4.37 中文文档(十七)
48 1
|
4月前
|
自然语言处理 PyTorch TensorFlow
Transformers 4.37 中文文档(十七)(4)
Transformers 4.37 中文文档(十七)
41 1
|
4月前
|
并行计算 PyTorch TensorFlow
Transformers 4.37 中文文档(十七)(3)
Transformers 4.37 中文文档(十七)
35 1
|
4月前
|
存储 PyTorch TensorFlow
Transformers 4.37 中文文档(十七)(1)
Transformers 4.37 中文文档(十七)
48 1
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(十七)(2)
Transformers 4.37 中文文档(十七)
35 1
|
4月前
|
缓存 自然语言处理 PyTorch
Transformers 4.37 中文文档(二十二)(2)
Transformers 4.37 中文文档(二十二)
29 2
|
4月前
|
PyTorch TensorFlow API
Transformers 4.37 中文文档(二十二)(3)
Transformers 4.37 中文文档(二十二)
30 1