Transformers 4.37 中文文档(二十九)(2)https://developer.aliyun.com/article/1563613
资源
Hugging Face 官方和社区(🌎表示)资源列表,帮助您开始使用 DistilBERT。如果您有兴趣提交资源以包含在此处,请随时打开 Pull Request,我们将进行审核!资源应该展示一些新东西,而不是重复现有资源。
文本分类
- 一篇关于使用 Python 开始情感分析的博客文章,使用 DistilBERT。
- 一篇关于如何使用 Blurr 训练 DistilBERT 进行序列分类的博客文章。
- 一篇关于如何使用 Ray 调整 DistilBERT 超参数的博客文章。
- 一篇关于如何使用 Hugging Face 和 Amazon SageMaker 训练 DistilBERT的博客文章。
- 一个关于如何微调 DistilBERT 用于多标签分类的笔记本。🌎
- 一个关于如何使用 PyTorch 微调 DistilBERT 进行多类分类的笔记本。🌎
- 一个关于如何在 TensorFlow 中微调 DistilBERT 用于文本分类的笔记本。🌎
- DistilBertForSequenceClassification 由这个示例脚本和笔记本支持。
- TFDistilBertForSequenceClassification 由这个示例脚本和笔记本支持。
- FlaxDistilBertForSequenceClassification 由这个示例脚本和笔记本支持。
- 文本分类任务指南
标记分类
- DistilBertForTokenClassification 由这个示例脚本和笔记本支持。
- TFDistilBertForTokenClassification 由这个示例脚本和笔记本支持。
- FlaxDistilBertForTokenClassification 由这个示例脚本支持。
- 🤗 Hugging Face 课程的Token classification章节。
- 标记分类任务指南
填充掩码
- DistilBertForMaskedLM 由这个示例脚本和笔记本支持。
- TFDistilBertForMaskedLM 可以通过这个 示例脚本 和 笔记本 支持。
- FlaxDistilBertForMaskedLM 可以通过这个 示例脚本 和 笔记本 支持。
- 遮蔽语言建模 章节的 🤗 Hugging Face 课程。
- 遮蔽语言建模任务指南
问答
- DistilBertForQuestionAnswering 可以通过这个 示例脚本 和 笔记本 支持。
- TFDistilBertForQuestionAnswering 可以通过这个 示例脚本 和 笔记本 支持。
- FlaxDistilBertForQuestionAnswering 可以通过这个 示例脚本 支持。
- 问答 章节的 🤗 Hugging Face 课程。
- 问答任务指南
多项选择
- DistilBertForMultipleChoice 可以通过这个 示例脚本 和 笔记本 支持。
- TFDistilBertForMultipleChoice 可以通过这个 示例脚本 和 笔记本 支持。
- 多项选择任务指南
⚗️ 优化
- 一篇关于如何 使用 🤗 Optimum 和 Intel 对 DistilBERT 进行量化 的博客文章。
- 一篇关于如何 使用 🤗 Optimum 优化 GPU 上的 Transformers 的博客文章。
- 一篇关于 使用 Hugging Face Optimum 优化 Transformers 的博客文章。
⚡️ 推理
- 一篇关于如何 使用 Hugging Face Transformers 和 AWS Inferentia 加速 BERT 推理 的博客文章,使用 DistilBERT。
- 一篇关于 使用 Hugging Face 的 Transformers、DistilBERT 和 Amazon SageMaker 进行无服务器推理 的博客文章。
🚀 部署
- 一篇关于如何 在 Google Cloud 上部署 DistilBERT 的博客文章。
- 关于如何 在 Amazon SageMaker 上部署 DistilBERT 的博客文章。
- 关于如何 使用 Hugging Face Transformers、Amazon SageMaker 和 Terraform 模块部署 BERT 的博客文章。
结合 DistilBERT 和 Flash Attention 2
首先确保安装最新版本的 Flash Attention 2 以包括滑动窗口注意力特性。
pip install -U flash-attn --no-build-isolation
还要确保您拥有与 Flash-Attention 2 兼容的硬件。在 flash-attn 仓库的官方文档中了解更多。还要确保以半精度(例如 torch.float16
)加载您的模型。
要使用 Flash Attention 2 加载和运行模型,请参考下面的代码片段:
>>> import torch >>> from transformers import AutoTokenizer, AutoModel >>> device = "cuda" # the device to load the model onto >>> tokenizer = AutoTokenizer.from_pretrained('distilbert-base-uncased') >>> model = AutoModel.from_pretrained("distilbert-base-uncased", torch_dtype=torch.float16, attn_implementation="flash_attention_2") >>> text = "Replace me by any text you'd like." >>> encoded_input = tokenizer(text, return_tensors='pt').to(device) >>> model.to(device) >>> output = model(**encoded_input)
DistilBertConfig
class transformers.DistilBertConfig
( vocab_size = 30522 max_position_embeddings = 512 sinusoidal_pos_embds = False n_layers = 6 n_heads = 12 dim = 768 hidden_dim = 3072 dropout = 0.1 attention_dropout = 0.1 activation = 'gelu' initializer_range = 0.02 qa_dropout = 0.1 seq_classif_dropout = 0.2 pad_token_id = 0 **kwargs )
参数
vocab_size
(int
, optional, 默认为 30522) — DistilBERT 模型的词汇量。定义了在调用 DistilBertModel 或 TFDistilBertModel 时可以表示的不同标记数量。max_position_embeddings
(int
, optional, 默认为 512) — 此模型可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512、1024 或 2048)。sine_pos_embds
(boolean
, optional, 默认为False
) — 是否使用正弦位置嵌入。n_layers
(int
, optional, 默认为 6) — Transformer 编码器中的隐藏层数。n_heads
(int
, optional, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数。dim
(int
, optional, 默认为 768) — 编码器层和池化器层的维度。hidden_dim
(int
, optional, 默认为 3072) — Transformer 编码器中“中间”(通常称为前馈)层的大小。dropout
(float
, optional, 默认为 0.1) — 嵌入层、编码器和池化器中所有全连接层的丢弃概率。attention_dropout
(float
, optional, 默认为 0.1) — 注意力概率的丢弃比例。activation
(str
或Callable
, optional, 默认为"gelu"
) — 编码器和池化器中的非线性激活函数(函数或字符串)。如果是字符串,支持"gelu"
、"relu"
、"silu"
和"gelu_new"
。initializer_range
(float
, optional, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。qa_dropout
(float
, optional, 默认为 0.1) — 问答模型 DistilBertForQuestionAnswering 中使用的丢弃概率。seq_classif_dropout
(float
, optional, 默认为 0.2) — 序列分类和多选模型 DistilBertForSequenceClassification 中使用的丢弃概率。
这是用于存储 DistilBertModel 或 TFDistilBertModel 配置的配置类。根据指定的参数实例化一个 DistilBERT 模型,定义模型架构。使用默认值实例化配置将产生类似于 DistilBERT distilbert-base-uncased 架构的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档以获取更多信息。
示例:
>>> from transformers import DistilBertConfig, DistilBertModel >>> # Initializing a DistilBERT configuration >>> configuration = DistilBertConfig() >>> # Initializing a model (with random weights) from the configuration >>> model = DistilBertModel(configuration) >>> # Accessing the model configuration >>> configuration = model.config
DistilBertTokenizer
class transformers.DistilBertTokenizer
( vocab_file do_lower_case = True do_basic_tokenize = True never_split = None unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )
参数
vocab_file
(str
)— 包含词汇表的文件。do_lower_case
(bool
,可选,默认为True
)— 在分词时是否将输入转换为小写。do_basic_tokenize
(bool
,可选,默认为True
)— 在 WordPiece 之前是否进行基本分词。never_split
(Iterable
,可选)— 在分词时永远不会拆分的标记集合。仅在do_basic_tokenize=True
时有效unk_token
(str
,可选,默认为"[UNK]"
)— 未知标记。词汇表中没有的标记无法转换为 ID,而是设置为此标记。sep_token
(str
,可选,默认为"[SEP]"
)— 分隔符标记,在从多个序列构建序列时使用,例如用于序列分类的两个序列或用于文本和问题的问题回答。它还用作使用特殊标记构建的序列的最后一个标记。pad_token
(str
,可选,默认为"[PAD]"
)— 用于填充的标记,例如在批处理不同长度的序列时使用。cls_token
(str
,可选,默认为"[CLS]"
)— 在进行序列分类(对整个序列而不是每个标记进行分类)时使用的分类器标记。构建带有特殊标记的序列时,它是序列的第一个标记。mask_token
(str
,可选,默认为"[MASK]"
)— 用于屏蔽值的标记。这是在使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。tokenize_chinese_chars
(bool
,可选,默认为True
)— 是否对中文字符进行分词。
这可能应该在日语中停用(请参阅此问题)。strip_accents
(bool
,可选)— 是否去除所有重音符号。如果未指定此选项,则将由lowercase
的值确定(与原始 BERT 一样)。
构建一个 DistilBERT 分词器。基于 WordPiece。
这个分词器继承自 PreTrainedTokenizer,其中包含大部分主要方法。用户应参考这个超类以获取有关这些方法的更多信息。
build_inputs_with_special_tokens
( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
)— 将添加特殊标记的 ID 列表。token_ids_1
(List[int]
,可选)— 序列对的可选第二个 ID 列表。
返回
List[int]
具有适当特殊标记的输入 ID 列表。
通过连接和添加特殊标记从序列或序列对构建用于序列分类任务的模型输入。BERT 序列的格式如下:
- 单个序列:
[CLS] X [SEP]
- 一对序列:
[CLS] A [SEP] B [SEP]
convert_tokens_to_string
( tokens )
将一系列标记(字符串)转换为单个字符串。
create_token_type_ids_from_sequences
( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
) — ID 列表。token_ids_1
(List[int]
, 可选) — 序列对的第二个 ID 列表。
返回
List[int]
根据给定序列的令牌类型 ID 列表。
从传递的两个序列创建一个用于序列对分类任务的掩码。一个 BERT 序列
对偶掩码的格式如下:
0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 | first sequence | second sequence |
如果token_ids_1
为None
,则此方法仅返回掩码的第一部分(0)。
get_special_tokens_mask
( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
) — ID 列表。token_ids_1
(List[int]
, 可选) — 序列对的第二个 ID 列表。already_has_special_tokens
(bool
, 可选, 默认为False
) — 令牌列表是否已经使用特殊标记格式化为模型。
返回
List[int]
一个整数列表,范围为[0, 1]:1 表示特殊标记,0 表示序列标记。
从没有添加特殊标记的令牌列表中检索序列 id。在使用 tokenizer prepare_for_model
方法添加特殊标记时调用此方法。
DistilBertTokenizerFast
class transformers.DistilBertTokenizerFast
( vocab_file = None tokenizer_file = None do_lower_case = True unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )
参数
vocab_file
(str
) — 包含词汇表的文件。do_lower_case
(bool
, 可选, 默认为True
) — 在标记化时是否将输入转换为小写。unk_token
(str
, 可选, 默认为"[UNK]"
) — 未知标记。词汇表中没有的标记无法转换为 ID,而是设置为此标记。sep_token
(str
, 可选, 默认为"[SEP]"
) — 分隔符令牌,在构建来自多个序列的序列时使用,例如用于序列分类的两个序列或用于问题回答的文本和问题。它还用作使用特殊标记构建的序列的最后一个标记。pad_token
(str
, 可选, 默认为"[PAD]"
) — 用于填充的标记,例如在批处理不同长度的序列时使用。cls_token
(str
, 可选, 默认为"[CLS]"
) — 分类器标记,用于进行序列分类(对整个序列进行分类而不是每个标记的分类)。当使用特殊标记构建序列时,它是序列的第一个标记。mask_token
(str
, 可选, 默认为"[MASK]"
) — 用于屏蔽值的标记。这是在使用屏蔽语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。clean_text
(bool
, 可选, 默认为True
) — 在标记化之前是否清理文本,通过删除任何控制字符并将所有空格替换为经典空格。tokenize_chinese_chars
(bool
, 可选, 默认为True
) — 是否对中文字符进行标记化。这可能应该在日语中停用(参见此问题)。strip_accents
(bool
, 可选) — 是否去除所有重音符号。如果未指定此选项,则将由lowercase
的值确定(与原始 BERT 中相同)。wordpieces_prefix
(str
, 可选, 默认为"##"
) — 子词的前缀。
构建一个“快速”DistilBERT 分词器(由 HuggingFace 的tokenizers库支持)。基于 WordPiece。
这个分词器继承自 PreTrainedTokenizerFast,其中包含大部分主要方法。用户应参考这个超类以获取有关这些方法的更多信息。
build_inputs_with_special_tokens
( token_ids_0 token_ids_1 = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
) — 将添加特殊标记的 ID 列表。token_ids_1
(List[int]
, 可选) — 序列对的第二个 ID 列表。
返回
List[int]
带有适当特殊标记的 input IDs 列表。
通过连接和添加特殊标记,从序列或序列对构建用于序列分类任务的模型输入。BERT 序列的格式如下:
- 单个序列:
[CLS] X [SEP]
- 序列对:
[CLS] A [SEP] B [SEP]
create_token_type_ids_from_sequences
( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
) — ID 列表。token_ids_1
(List[int]
, 可选) — 序列对的第二个 ID 列表。
返回
List[int]
根据给定序列的 token type IDs 列表。
从传递的两个序列创建一个用于序列对分类任务的掩码。一个 BERT 序列
序列对掩码的格式如下:
0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 | first sequence | second sequence |
如果token_ids_1
为None
,此方法仅返回掩码的第一部分(0)。
PytorchHide Pytorch 内容
DistilBertModel
class transformers.DistilBertModel
( config: PretrainedConfig )
参数
config
(DistilBertConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。
裸的 DistilBERT 编码器/变换器输出原始隐藏状态,没有特定的头部。
这个模型继承自 PreTrainedModel。检查超类文档以获取库为所有模型实现的通用方法(如下载或保存、调整输入嵌入、修剪头等)。
这个模型也是一个 PyTorch torch.nn.Module子类。将其用作常规的 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有信息。
forward
( input_ids: Optional = None attention_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.BaseModelOutput or tuple(torch.FloatTensor)
参数
input_ids
(torch.LongTensor
,形状为(batch_size, num_choices)
) — 词汇表中输入序列标记的索引。
可以使用 AutoTokenizer 获取索引。查看 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call
()以获取详细信息。
什么是 input IDs?attention_mask
(torch.FloatTensor
,形状为(batch_size, num_choices)
,可选) — 避免在填充标记索引上执行注意力的掩码。掩码值选在[0, 1]
之间:
- 对于未被
masked
的标记为 1, - 被
masked
的标记为 0。
- 什么是注意力掩码?
head_mask
(形状为(num_heads,)
或(num_layers, num_heads)
的torch.FloatTensor
,可选)-用于使自注意力模块的选定头部无效的掩码。选择的掩码值在[0, 1]
中:
- 1 表示头部
未被掩盖
, - 0 表示头部
被掩盖
。
inputs_embeds
(形状为(batch_size, num_choices, hidden_size)
的torch.FloatTensor
,可选)-可选地,您可以选择直接传递嵌入表示,而不是传递input_ids
。如果您想要更多控制如何将input_ids
索引转换为关联向量,而不是模型的内部嵌入查找矩阵,则这很有用。output_attentions
(bool
,可选)-是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。output_hidden_states
(bool
,可选)-是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。return_dict
(bool
,可选)-是否返回一个 ModelOutput 而不是一个普通元组。
返回
transformers.modeling_outputs.BaseModelOutput 或tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutput 或一个torch.FloatTensor
元组(如果传递了return_dict=False
或config.return_dict=False
时)包含根据配置(DistilBertConfig)和输入不同元素。
last_hidden_state
(形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
)-模型最后一层的隐藏状态序列。hidden_states
(tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回)-形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层的输出,+每层输出的一个)。
模型在每一层输出的隐藏状态加上可选的初始嵌入输出。attentions
(tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或config.output_attentions=True
时返回)-形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每层一个)。
在自注意力头中用于计算加权平均值的注意力 softmax 后的注意力权重。
DistilBertModel 的 forward 方法覆盖了__call__
特殊方法。
虽然前向传递的步骤需要在此函数内定义,但应该在此之后调用Module
实例,而不是这个,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。
示例:
>>> from transformers import AutoTokenizer, DistilBertModel >>> import torch >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") >>> model = DistilBertModel.from_pretrained("distilbert-base-uncased") >>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt") >>> outputs = model(**inputs) >>> last_hidden_states = outputs.last_hidden_state
DistilBertForMaskedLM
class transformers.DistilBertForMaskedLM
( config: PretrainedConfig )
参数
config
(DistilBertConfig)-模型的所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只加载配置。查看 from_pretrained()方法以加载模型权重。
DistilBert 模型顶部带有masked language modeling
头。
此模型继承自 PreTrainedModel。检查超类文档以获取库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入、修剪头等)。
此模型也是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有相关信息。
forward
( input_ids: Optional = None attention_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.MaskedLMOutput or tuple(torch.FloatTensor)
参数
input_ids
(torch.LongTensor
,形状为(batch_size, num_choices)
) — 词汇表中输入序列标记的索引。
可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call
()。
什么是输入 ID?attention_mask
(torch.FloatTensor
,形状为(batch_size, num_choices)
,可选) — 避免对填充标记索引执行注意力的掩码。选择的掩码值在[0, 1]
内:
- 对于未被
masked
的标记为 1, - 对于被
masked
的标记为 0。
- 什么是注意力掩码?
head_mask
(torch.FloatTensor
,形状为(num_heads,)
或(num_layers, num_heads)
,可选) — 用于使自注意力模块的选定头部失效的掩码。选择的掩码值在[0, 1]
内:
- 1 表示头部未被
masked
, - 0 表示头部被
masked
。
inputs_embeds
(torch.FloatTensor
,形状为(batch_size, num_choices, hidden_size)
,可选) — 可选地,可以直接传递嵌入表示,而不是传递input_ids
。如果您想要更多控制如何将input_ids
索引转换为相关向量,这很有用,而不是使用模型的内部嵌入查找矩阵。output_attentions
(bool
, optional) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量中的attentions
。output_hidden_states
(bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的hidden_states
。return_dict
(bool
,可选) — 是否返回 ModelOutput 而不是普通元组。labels
(torch.LongTensor
,形状为(batch_size, sequence_length)
,可选) — 用于计算掩码语言建模损失的标签。索引应在[-100, 0, ..., config.vocab_size]
内(参见input_ids
文档字符串)。索引设置为-100
的标记将被忽略(masked),损失仅计算具有标签在[0, ..., config.vocab_size]
内的标记。
返回
transformers.modeling_outputs.MaskedLMOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.MaskedLMOutput 或一个torch.FloatTensor
元组(如果传递了return_dict=False
或config.return_dict=False
时)包含根据配置(DistilBertConfig)和输入的不同元素。
loss
(torch.FloatTensor
,形状为(1,)
,可选,当提供labels
时返回) — 掩码语言建模(MLM)损失。logits
(形状为(batch_size, sequence_length, config.vocab_size)
的torch.FloatTensor
)— 语言建模头的预测分数(SoftMax 之前每个词汇标记的分数)。hidden_states
(tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回)— 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层的输出一个,+每个层的输出一个)。
模型在每一层的输出的隐藏状态以及可选的初始嵌入输出。attentions
(tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或config.output_attentions=True
时返回)— 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每层一个)。
在自注意力头中用于计算加权平均值的注意力权重之后的注意力 softmax。
DistilBertForMaskedLM 的前向方法,覆盖了__call__
特殊方法。
尽管前向传递的方法需要在此函数内定义,但应该在此之后调用Module
实例,而不是在此处调用,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。
示例:
>>> from transformers import AutoTokenizer, DistilBertForMaskedLM >>> import torch >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") >>> model = DistilBertForMaskedLM.from_pretrained("distilbert-base-uncased") >>> inputs = tokenizer("The capital of France is [MASK].", return_tensors="pt") >>> with torch.no_grad(): ... logits = model(**inputs).logits >>> # retrieve index of [MASK] >>> mask_token_index = (inputs.input_ids == tokenizer.mask_token_id)[0].nonzero(as_tuple=True)[0] >>> predicted_token_id = logits[0, mask_token_index].argmax(axis=-1) >>> labels = tokenizer("The capital of France is Paris.", return_tensors="pt")["input_ids"] >>> # mask labels of non-[MASK] tokens >>> labels = torch.where(inputs.input_ids == tokenizer.mask_token_id, labels, -100) >>> outputs = model(**inputs, labels=labels)
DistilBertForSequenceClassification
class transformers.DistilBertForSequenceClassification
( config: PretrainedConfig )
参数
config
(DistilBertConfig)— 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只加载配置。查看 from_pretrained()方法以加载模型权重。
DistilBert 模型变换器,顶部带有序列分类/回归头(在池化输出的顶部有一个线性层),例如用于 GLUE 任务。
此模型继承自 PreTrainedModel。检查超类文档以获取库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入、修剪头等)。
此模型还是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取与一般用法和行为相关的所有事项。
forward
( input_ids: Optional = None attention_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.SequenceClassifierOutput or tuple(torch.FloatTensor)
参数
input_ids
(形状为(batch_size, sequence_length)
的torch.LongTensor
)— 词汇表中输入序列标记的索引。
可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call
()。
什么是输入 ID?attention_mask
(形状为(batch_size, sequence_length)
的torch.FloatTensor
,可选)— 避免在填充标记索引上执行注意力的掩码。选择的掩码值在[0, 1]
中:
- 对于未被“掩码”的标记为 1。
- 对于被“掩码”的标记为 0。
- 什么是注意力掩码?
head_mask
(torch.FloatTensor
,形状为(num_heads,)
或(num_layers, num_heads)
,可选)— 用于使自注意力模块的选定头部失效的掩码。掩码值选定在[0, 1]
之间:
- 1 表示头部未被
masked
, - 0 表示头部被
masked
。
inputs_embeds
(torch.FloatTensor
,形状为(batch_size, sequence_length, hidden_size)
,可选)— 可选地,可以直接传递嵌入表示而不是传递input_ids
。如果您想要更多控制权来将input_ids
索引转换为相关向量,这将很有用,而不是使用模型的内部嵌入查找矩阵。output_attentions
(bool
,可选)— 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。output_hidden_states
(bool
,可选)— 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。return_dict
(bool
,可选)— 是否返回一个 ModelOutput 而不是一个普通元组。labels
(torch.LongTensor
,形状为(batch_size,)
,可选)— 用于计算序列分类/回归损失的标签。索引应在[0, ..., config.num_labels - 1]
范围内。如果config.num_labels == 1
,则计算回归损失(均方损失),如果config.num_labels > 1
,则计算分类损失(交叉熵)。
返回
transformers.modeling_outputs.SequenceClassifierOutput 或tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.SequenceClassifierOutput 或一个torch.FloatTensor
元组(如果传递return_dict=False
或config.return_dict=False
)包含根据配置(DistilBertConfig)和输入的各种元素。
loss
(torch.FloatTensor
,形状为(1,)
,可选,在提供labels
时返回)— 分类(如果 config.num_labels==1 则为回归)损失。logits
(torch.FloatTensor
,形状为(batch_size, config.num_labels)
)— 分类(如果 config.num_labels==1 则为回归)得分(SoftMax 之前)。hidden_states
(tuple(torch.FloatTensor)
,可选,在传递output_hidden_states=True
或config.output_hidden_states=True
时返回)—torch.FloatTensor
元组(一个用于嵌入层的输出,如果模型有一个嵌入层,+ 一个用于每一层的输出)的形状为(batch_size, sequence_length, hidden_size)
。
模型在每一层输出的隐藏状态加上可选的初始嵌入输出。attentions
(tuple(torch.FloatTensor)
,可选,在传递output_attentions=True
或config.output_attentions=True
时返回)—torch.FloatTensor
元组(每层一个)的形状为(batch_size, num_heads, sequence_length, sequence_length)
。
在自注意力头中使用注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
DistilBertForSequenceClassification 的前向方法,覆盖了__call__
特殊方法。
尽管前向传递的步骤需要在此函数内定义,但应该在此之后调用Module
实例,而不是在此处调用,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。
单标签分类示例:
>>> import torch >>> from transformers import AutoTokenizer, DistilBertForSequenceClassification >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") >>> model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased") >>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt") >>> with torch.no_grad(): ... logits = model(**inputs).logits >>> predicted_class_id = logits.argmax().item() >>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)` >>> num_labels = len(model.config.id2label) >>> model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased", num_labels=num_labels) >>> labels = torch.tensor([1]) >>> loss = model(**inputs, labels=labels).loss
多标签分类示例:
>>> import torch >>> from transformers import AutoTokenizer, DistilBertForSequenceClassification >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") >>> model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased", problem_type="multi_label_classification") >>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt") >>> with torch.no_grad(): ... logits = model(**inputs).logits >>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5] >>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)` >>> num_labels = len(model.config.id2label) >>> model = DistilBertForSequenceClassification.from_pretrained( ... "distilbert-base-uncased", num_labels=num_labels, problem_type="multi_label_classification" ... ) >>> labels = torch.sum( ... torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1 ... ).to(torch.float) >>> loss = model(**inputs, labels=labels).loss
DistilBertForMultipleChoice
class transformers.DistilBertForMultipleChoice
( config: PretrainedConfig )
参数
config
(DistilBertConfig)— 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained()方法以加载模型权重。
DistilBert 模型在顶部有一个多选分类头(在汇总输出的顶部有一个线性层和一个 softmax),例如用于 RocStories/SWAG 任务。
这个模型继承自 PreTrainedModel。查看超类文档以获取库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入、修剪头等)。
这个模型也是一个 PyTorch torch.nn.Module子类。将其用作常规的 PyTorch 模块,并参考 PyTorch 文档以获取与一般用法和行为相关的所有内容。
forward
( input_ids: Optional = None attention_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.MultipleChoiceModelOutput or tuple(torch.FloatTensor)
参数
input_ids
(形状为(batch_size, num_choices, sequence_length)
的torch.LongTensor
)— 输入序列标记在词汇表中的索引。
可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call
()。
什么是输入 ID?attention_mask
(形状为(batch_size, num_choices, sequence_length)
的torch.FloatTensor
,可选)— 用于避免在填充标记索引上执行注意力的掩码。掩码值选定在[0, 1]
中:
- 1 表示“未被掩盖”的标记,
- 0 表示“被掩盖”的标记。
- 什么是注意力掩码?
head_mask
(形状为(num_heads,)
或(num_layers, num_heads)
的torch.FloatTensor
,可选)— 用于使自注意力模块的选定头部失效的掩码。掩码值选定在[0, 1]
中:
- 1 表示头部“未被掩盖”,
- 0 表示头部“被掩盖”。
inputs_embeds
(形状为(batch_size, num_choices, sequence_length, hidden_size)
的torch.FloatTensor
,可选)— 可选地,您可以选择直接传递嵌入表示,而不是传递input_ids
。如果您想要更多控制如何将input_ids
索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。output_attentions
(bool
,可选)— 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量下的attentions
。output_hidden_states
(bool
,可选)— 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量下的hidden_states
。return_dict
(bool
,可选)— 是否返回 ModelOutput 而不是普通元组。labels
(形状为(batch_size,)
的torch.LongTensor
,可选)— 用于计算多选分类损失的标签。索引应在[0, ..., num_choices-1]
中,其中num_choices
是输入张量的第二维的大小。(参见上面的input_ids
)
返回
transformers.modeling_outputs.MultipleChoiceModelOutput 或tuple(torch.FloatTensor)
transformers.modeling_outputs.MultipleChoiceModelOutput 或一个torch.FloatTensor
元组(如果传递了return_dict=False
或config.return_dict=False
时)包含根据配置(DistilBertConfig)和输入的各种元素。
loss
(torch.FloatTensor
,形状为*(1,)*,可选,在提供labels
时返回) — 分类损失。logits
(形状为(batch_size, num_choices)
的torch.FloatTensor
) — num_choices是输入张量的第二维度。(参见上面的input_ids)。
分类得分(SoftMax 之前)。hidden_states
(tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(一个用于嵌入的输出,如果模型有一个嵌入层,+ 一个用于每一层的输出)。
模型在每一层输出处的隐藏状态以及可选的初始嵌入输出。attentions
(tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每层一个)。
注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
DistilBertForMultipleChoice 的前向方法,覆盖了__call__
特殊方法。
尽管前向传递的配方需要在此函数内定义,但应该在此之后调用Module
实例,而不是这个,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
示例:
>>> from transformers import AutoTokenizer, DistilBertForMultipleChoice >>> import torch >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-cased") >>> model = DistilBertForMultipleChoice.from_pretrained("distilbert-base-cased") >>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced." >>> choice0 = "It is eaten with a fork and a knife." >>> choice1 = "It is eaten while held in the hand." >>> labels = torch.tensor(0).unsqueeze(0) # choice0 is correct (according to Wikipedia ;)), batch size 1 >>> encoding = tokenizer([[prompt, choice0], [prompt, choice1]], return_tensors="pt", padding=True) >>> outputs = model(**{k: v.unsqueeze(0) for k, v in encoding.items()}, labels=labels) # batch size is 1 >>> # the linear classifier still needs to be trained >>> loss = outputs.loss >>> logits = outputs.logits
DistilBertForTokenClassification
class transformers.DistilBertForTokenClassification
( config: PretrainedConfig )
参数
config
(DistilBertConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained()方法以加载模型权重。
DistilBert 模型,顶部带有一个标记分类头(隐藏状态输出的线性层),例如用于命名实体识别(NER)任务。
此模型继承自 PreTrainedModel。查看超类文档以了解库为所有模型实现的通用方法(如下载或保存、调整输入嵌入、修剪头等)。
此模型还是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有信息。
forward
( input_ids: Optional = None attention_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → export const metadata = 'undefined';transformers.modeling_outputs.TokenClassifierOutput or tuple(torch.FloatTensor)
参数
input_ids
(形状为({0})
的torch.LongTensor
) — 词汇表中输入序列标记的索引。
可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call
()。
什么是输入 ID?attention_mask
(torch.FloatTensor
,形状为({0})
,optional) — 用于避免在填充标记索引上执行注意力的掩码。掩码值选在[0, 1]
之间:
- 1 表示
未被掩码
的标记, - 0 表示
被掩码
的标记。
- 什么是注意力掩码?
head_mask
(torch.FloatTensor
,形状为(num_heads,)
或(num_layers, num_heads)
,optional) — 用于使自注意力模块中选择的头部失效的掩码。掩码值选在[0, 1]
之间:
- 1 表示头部
未被掩码
, - 0 表示头部
被掩码
。
inputs_embeds
(torch.FloatTensor
,形状为({0}, hidden_size)
,optional) — 可选地,可以直接传递嵌入表示,而不是传递input_ids
。如果您想要更多控制如何将input_ids
索引转换为相关向量,这将非常有用,而不是使用模型的内部嵌入查找矩阵。output_attentions
(bool
, optional) — 是否返回所有注意力层的注意力张量。有关更多细节,请参见返回张量下的attentions
。output_hidden_states
(bool
,optional) — 是否返回所有层的隐藏状态。有关更多细节,请参见返回张量下的hidden_states
。return_dict
(bool
,optional) — 是否返回 ModelOutput 而不是普通元组。labels
(torch.LongTensor
,形状为(batch_size, sequence_length)
,optional) — 用于计算标记分类损失的标签。索引应在[0, ..., config.num_labels - 1]
之间。
返回
transformers.modeling_outputs.TokenClassifierOutput 或tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.TokenClassifierOutput 或一个torch.FloatTensor
元组(如果传递了return_dict=False
或config.return_dict=False
时)包含各种元素,取决于配置(DistilBertConfig)和输入。
loss
(torch.FloatTensor
,形状为(1,)
,optional,当提供labels
时返回) — 分类损失。logits
(torch.FloatTensor
,形状为(batch_size, sequence_length, config.num_labels)
) — 分类得分(SoftMax 之前)。hidden_states
(tuple(torch.FloatTensor)
,optional,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层,则为嵌入的输出+每层的输出)。
模型在每一层输出的隐藏状态加上可选的初始嵌入输出。attentions
(tuple(torch.FloatTensor)
,optional,当传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每层一个)。
注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
DistilBertForTokenClassification 的前向方法,覆盖了__call__
特殊方法。
虽然前向传递的步骤需要在此函数内定义,但应该在此之后调用Module
实例,而不是在此处调用,因为前者会负责运行预处理和后处理步骤,而后者会默默地忽略它们。
示例:
>>> from transformers import AutoTokenizer, DistilBertForTokenClassification >>> import torch >>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") >>> model = DistilBertForTokenClassification.from_pretrained("distilbert-base-uncased") >>> inputs = tokenizer( ... "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="pt" ... ) >>> with torch.no_grad(): ... logits = model(**inputs).logits >>> predicted_token_class_ids = logits.argmax(-1) >>> # Note that tokens are classified rather then input words which means that >>> # there might be more predicted token classes than words. >>> # Multiple token classes might account for the same word >>> predicted_tokens_classes = [model.config.id2label[t.item()] for t in predicted_token_class_ids[0]] >>> labels = predicted_token_class_ids >>> loss = model(**inputs, labels=labels).loss
Transformers 4.37 中文文档(二十九)(4)https://developer.aliyun.com/article/1563619