管道的实用程序
原文:
huggingface.co/docs/transformers/v4.37.2/en/internal/pipelines_utils
此页面列出了库为管道提供的所有实用程序函数。
这些大多数只有在研究库中模型的代码时才有用。
参数处理
class transformers.pipelines.ArgumentHandler
( )
处理每个 Pipeline 的参数的基本接口。
class transformers.pipelines.ZeroShotClassificationArgumentHandler
( )
通过将每个可能的标签转换为 NLI 前提/假设对来处理零射击文本分类的参数。
class transformers.pipelines.QuestionAnsweringArgumentHandler
( )
QuestionAnsweringPipeline 要求用户提供多个参数(即问题和上下文),以映射到内部的 SquadExample
。
QuestionAnsweringArgumentHandler 管理从命令行提供的参数创建 SquadExample
的所有可能性。
数据格式
class transformers.PipelineDataFormat
( output_path: Optional input_path: Optional column: Optional overwrite: bool = False )
参数
output_path
(str
) — 要保存传出数据的位置。input_path
(str
) — 要查找输入数据的位置。column
(str
) — 要读取的列。overwrite
(bool
, 可选, 默认为False
) — 是否覆盖output_path
。
所有管道支持的数据格式的基类,用于读取和写入。当前支持的数据格式包括:
- JSON
- CSV
- stdin/stdout(管道)
PipelineDataFormat
还包括一些实用程序,用于处理多列,例如通过 dataset_kwarg_1=dataset_column_1
格式将数据集列映射到管道关键字参数。
from_str
( format: str output_path: Optional input_path: Optional column: Optional overwrite = False ) → export const metadata = 'undefined';PipelineDataFormat
参数
format
(str
) — 所需管道的格式。可接受的值为"json"
、"csv"
或"pipe"
。output_path
(str
, 可选) — 要保存传出数据的位置。input_path
(str
, 可选) — 要查找输入数据的位置。column
(str
, 可选) — 要读取的列。overwrite
(bool
, 可选, 默认为False
) — 是否覆盖output_path
。
返回
PipelineDataFormat
适当的数据格式。
根据 format
创建 PipelineDataFormat 的正确子类实例。
save
( data: Union )
参数
data
(dict
或dict
列表) — 要存储的数据。
使用当前 PipelineDataFormat 的表示保存提供的数据对象。
save_binary
( data: Union ) → export const metadata = 'undefined';str
参数
data
(dict
或dict
列表) — 要存储的数据。
返回
str
数据保存的路径。
将提供的数据对象保存为 pickle 格式的二进制数据在磁盘上。
class transformers.CsvPipelineDataFormat
( output_path: Optional input_path: Optional column: Optional overwrite = False )
参数
output_path
(str
) — 保存传出数据的位置。input_path
(str
) — 查找输入数据的位置。column
(str
) — 要读取的列。overwrite
(bool
, 可选, 默认为False
) — 是否覆盖output_path
。
支持使用 CSV 数据格式的管道。
保存
( data: List )
参数
data
(List[dict]
) — 要存储的数据。
使用当前的 PipelineDataFormat 表示保存提供的数据对象。
class transformers.JsonPipelineDataFormat
( output_path: Optional input_path: Optional column: Optional overwrite = False )
参数
output_path
(str
) — 保存传出数据的位置。input_path
(str
) — 查找输入数据的位置。column
(str
) — 要读取的列。overwrite
(bool
, 可选, 默认为False
) — 是否覆盖output_path
。
支持使用 JSON 文件格式的管道。
保存
( data: dict )
参数
data
(dict
) — 要存储的数据。
将提供的数据对象保存在 json 文件中。
class transformers.PipedPipelineDataFormat
( output_path: Optional input_path: Optional column: Optional overwrite: bool = False )
参数
output_path
(str
) — 保存传出数据的位置。input_path
(str
) — 查找输入数据的位置。column
(str
) — 要读取的列。overwrite
(bool
, 可选, 默认为False
) — 是否覆盖output_path
。
从管道输入读取数据到 python 进程。对于多列数据,列应该用分隔符分开
如果提供了列,则输出将是一个包含 {column_x: value_x} 的字典
保存
( data: dict )
参数
data
(dict
) — 要存储的数据。
打印数据。
实用工具
class transformers.pipelines.PipelineException
( task: str model: str reason: str )
参数
task
(str
) — 管道的任务。model
(str
) — 管道使用的模型。reason
(str
) — 要显示的错误消息。
在处理 call 时由 Pipeline 引发。
分词器实用程序
原始文本:
huggingface.co/docs/transformers/v4.37.2/en/internal/tokenization_utils
此页面列出了分词器使用的所有实用函数,主要是实现 PreTrainedTokenizer 和 PreTrainedTokenizerFast 之间的常见方法的类 PreTrainedTokenizerBase 和混合 SpecialTokensMixin。
大多数情况下,这些只有在研究库中的分词器代码时才有用。
PreTrainedTokenizerBase
class transformers.PreTrainedTokenizerBase
( **kwargs )
参数
model_max_length
(int
, 可选) — 输入到变换器模型的最大长度(以标记数计)。当使用 from_pretrained() 加载分词器时,此值将设置为存储在max_model_input_sizes
中关联模型的值(参见上文)。如果未提供值,将默认为 VERY_LARGE_INTEGER (int(1e30)
).padding_side
(str
, 可选) — 模型应该应用填充的一侧。应在 [‘right’, ‘left’] 中选择。默认值从同名类属性中选择。truncation_side
(str
, 可选) — 模型应该应用截断的一侧。应在 [‘right’, ‘left’] 中选择。默认值从同名类属性中选择。chat_template
(str
, 可选) — 用于格式化聊天消息列表的 Jinja 模板字符串。查看huggingface.co/docs/transformers/chat_templating
获取完整描述。model_input_names
(List[string]
, 可选) — 模型前向传递接受的输入列表(如"token_type_ids"
或"attention_mask"
)。默认值从同名类属性中选择。bos_token
(str
或tokenizers.AddedToken
, 可选) — 代表句子开头的特殊标记。将与self.bos_token
和self.bos_token_id
相关联。eos_token
(str
或tokenizers.AddedToken
, 可选) — 代表句子结尾的特殊标记。将与self.eos_token
和self.eos_token_id
相关联。unk_token
(str
或tokenizers.AddedToken
, 可选) — 代表一个未知词的特殊标记。将与self.unk_token
和self.unk_token_id
相关联。sep_token
(str
或tokenizers.AddedToken
, 可选) — 用于在同一输入中分隔两个不同句子的特殊标记(例如,BERT 使用)。将与self.sep_token
和self.sep_token_id
相关联。pad_token
(str
或tokenizers.AddedToken
, 可选) — 用于使标记数组大小相同以进行批处理的特殊标记。然后将被注意机制或损失计算忽略。将与self.pad_token
和self.pad_token_id
相关联。cls_token
(str
或tokenizers.AddedToken
, 可选) — 代表输入类别的特殊标记(例如,BERT 使用)。将与self.cls_token
和self.cls_token_id
相关联。mask_token
(str
或tokenizers.AddedToken
, 可选) — 代表一个被屏蔽的标记的特殊标记(用于掩码语言建模预训练目标,如 BERT)。将与self.mask_token
和self.mask_token_id
相关联。additional_special_tokens
(元组或str
或tokenizers.AddedToken
的列表,可选) — 附加特殊标记的元组或列表。在此处添加它们以确保在skip_special_tokens
设置为 True 时解码时跳过它们。如果它们不是词汇的一部分,它们将被添加到词汇的末尾。clean_up_tokenization_spaces
(bool
, 可选,默认为True
) — 模型是否应清除在分词过程中拆分输入文本时添加的空格。split_special_tokens
(bool
, 可选,默认为False
) — 特殊标记是否应在分词过程中拆分。默认行为是不拆分特殊标记。这意味着如果是bos_token
,那么tokenizer.tokenize("") = ['
]。否则,如果
split_special_tokens=True,那么
tokenizer.tokenize(“”)将给出
[‘<’, ‘s’, ‘>’]。目前仅支持
slow`分词器支持此参数。
PreTrainedTokenizer 和 PreTrainedTokenizerFast 的基类。
处理这两个类的共享(大部分是样板)方法。
类属性(由派生类覆盖)
vocab_files_names
(Dict[str, str]
) — 一个字典,其中键是模型所需的每个词汇文件的__init__
关键字名称,关联值是用于保存关联文件的文件名(字符串)。pretrained_vocab_files_map
(Dict[str, Dict[str, str]]
) — 一个字典的字典,高级键是模型所需的每个词汇文件的__init__
关键字名称,低级键是预训练模型的short-cut-names
,关联值是关联预训练词汇文件的url
。max_model_input_sizes
(Dict[str, Optional[int]]
) — 一个字典,其中键是预训练模型的short-cut-names
,关联值是该模型的序列输入的最大长度,如果模型没有最大输入大小,则为None
。pretrained_init_configuration
(Dict[str, Dict[str, Any]]
) — 预训练模型的short-cut-names
作为键,关联值是一个字典,其中包含加载预训练模型时传递给 tokenizer 类的__init__
方法的特定参数。model_input_names
(List[str]
) — 模型前向传递中预期的输入列表。padding_side
(str
) — 模型应该应用填充的默认位置。应为'right'
或'left'
。truncation_side
(str
) — 模型应该应用截断的默认位置。应为'right'
或'left'
。
__call__
( text: Union = None text_pair: Union = None text_target: Union = None text_pair_target: Union = None add_special_tokens: bool = True padding: Union = False truncation: Union = None max_length: Optional = None stride: int = 0 is_split_into_words: bool = False pad_to_multiple_of: Optional = None return_tensors: Union = None return_token_type_ids: Optional = None return_attention_mask: Optional = None return_overflowing_tokens: bool = False return_special_tokens_mask: bool = False return_offsets_mapping: bool = False return_length: bool = False verbose: bool = True **kwargs ) → export const metadata = 'undefined';BatchEncoding
参数
text
(str
,List[str]
,List[List[str]]
, optional) — 要编码的序列或批量序列。每个序列可以是字符串或字符串列表(预先分词的字符串)。如果提供的序列是字符串列表(预先分词的),必须设置is_split_into_words=True
(以消除与批量序列的歧义)。text_pair
(str
,List[str]
,List[List[str]]
, optional) — 要编码的序列或批量序列。每个序列可以是字符串或字符串列表(预先分词的字符串)。如果提供的序列是字符串列表(预先分词的),必须设置is_split_into_words=True
(以消除与批量序列的歧义)。text_target
(str
,List[str]
,List[List[str]]
,可选)— 要编码为目标文本的序列或批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果将序列提供为字符串列表(预分词),必须设置is_split_into_words=True
(以消除与批次序列的歧义)。text_pair_target
(str
,List[str]
,List[List[str]]
,可选)— 要编码为目标文本的序列或批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果将序列提供为字符串列表(预分词),必须设置is_split_into_words=True
(以消除与批次序列的歧义)。add_special_tokens
(bool
,可选,默认为True
)— 在编码序列时是否添加特殊标记。这将使用底层的PretrainedTokenizerBase.build_inputs_with_special_tokens
函数,该函数定义了自动添加到输入 id 的标记。如果要自动添加bos
或eos
标记,则这很有用。padding
(bool
,str
或 PaddingStrategy,可选,默认为False
)— 激活和控制填充。接受以下值:
True
或'longest'
:填充到批次中最长的序列(如果只提供单个序列,则不填充)。'max_length'
: 使用参数max_length
指定的最大长度进行填充,或者使用模型的最大可接受输入长度(如果未提供该参数)。False
或'do_not_pad'
(默认):无填充(即,可以输出长度不同的序列批次)。
truncation
(bool
,str
或 TruncationStrategy,可选,默认为False
)— 激活和控制截断。接受以下值:
True
或'longest_first'
:使用参数max_length
指定的最大长度进行截断,或者使用模型的最大可接受输入长度(如果未提供该参数)。这将逐标记截断,如果提供了一对序列(或一批对序列),则从较长序列中删除一个标记。'only_first'
: 使用参数max_length
指定的最大长度进行截断,或者使用模型的最大可接受输入长度(如果未提供该参数)。如果提供了一对序列(或一批对序列),则仅截断第一个序列。'only_second'
: 使用参数max_length
指定的最大长度进行截断,或者使用模型的最大可接受输入长度(如果未提供该参数)。如果提供了一对序列(或一批对序列),则仅截断第二个序列。False
或'do_not_truncate'
(默认):无截断(即,可以输出长度大于模型最大可接受输入大小的批次)。
max_length
(int
,可选)— 由截断/填充参数之一使用的最大长度。
如果未设置或设置为None
,则将使用预定义的模型最大长度(如果截断/填充参数中需要最大长度)。如果模型没有特定的最大输入长度(如 XLNet),则将禁用截断/填充到最大长度。stride
(int
,可选,默认为 0)— 如果与max_length
一起设置为一个数字,则当return_overflowing_tokens=True
时返回的溢出标记将包含截断序列末尾的一些标记,以提供截断和溢出序列之间的一些重叠。此参数的值定义了重叠标记的数量。is_split_into_words
(bool
, optional, defaults toFalse
) — 输入是否已经预分词化(例如,已经分成单词)。如果设置为True
,分词器会假定输入已经分成单词(例如,通过在空格上分割),然后对其进行分词。这对于 NER 或令牌分类很有用。pad_to_multiple_of
(int
, optional) — 如果设置,将填充序列到提供的值的倍数。需要激活padding
。这对于启用具有计算能力>= 7.5
(Volta)的 NVIDIA 硬件上的 Tensor Cores 的使用特别有用。return_tensors
(str
或 TensorType, optional) — 如果设置,将返回张量而不是 Python 整数列表。可接受的值为:
'tf'
: 返回 TensorFlowtf.constant
对象。'pt'
: 返回 PyTorchtorch.Tensor
对象。'np'
: 返回 Numpynp.ndarray
对象。
return_token_type_ids
(bool
, optional) — 是否返回令牌类型 ID。如果保持默认设置,将根据特定分词器的默认值返回令牌类型 ID,由return_outputs
属性定义。
什么是 token 类型 ID?return_attention_mask
(bool
, optional) — 是否返回注意力掩码。如果保持默认设置,将根据特定分词器的默认值返回注意力掩码,由return_outputs
属性定义。
什么是注意力掩码?return_overflowing_tokens
(bool
, optional, defaults toFalse
) — 是否返回溢出的令牌序列。如果提供了一对输入 ID 序列(或一批对)并且truncation_strategy = longest_first
或True
,则会引发错误,而不是返回溢出的令牌。return_special_tokens_mask
(bool
, optional, defaults toFalse
) — 是否返回特殊令牌掩码信息。return_offsets_mapping
(bool
, optional, defaults toFalse
) — 是否返回每个令牌的(char_start, char_end)
。
这仅适用于继承自 PreTrainedTokenizerFast 的快速分词器,如果使用 Python 的分词器,此方法将引发NotImplementedError
。return_length
(bool
, optional, defaults toFalse
) — 是否返回编码输入的长度。verbose
(bool
, optional, defaults toTrue
) — 是否打印更多信息和警告。**kwargs — 传递给self.tokenize()
方法
返回
BatchEncoding
具有以下字段的 BatchEncoding:
input_ids
— 要馈送给模型的令牌 ID 列表。
什么是输入 ID?token_type_ids
— 要馈送给模型的令牌类型 ID 列表(当return_token_type_ids=True
或*token_type_ids
*在self.model_input_names
中时)。
什么是 token 类型 ID?attention_mask
— 指定模型应该关注的令牌的索引列表(当return_attention_mask=True
或*attention_mask
*在self.model_input_names
中时)。
什么是注意力掩码?overflowing_tokens
— 溢出的令牌序列列表(当指定max_length
并且return_overflowing_tokens=True
时)。num_truncated_tokens
— 被截断的令牌数量(当指定max_length
并且return_overflowing_tokens=True
时)。special_tokens_mask
— 0 和 1 的列表,其中 1 指定添加的特殊令牌,0 指定常规序列令牌(当add_special_tokens=True
和return_special_tokens_mask=True
时)。length
— 输入的长度(当return_length=True
时)
标记化和为模型准备一个或多个序列或一个或多个序列对的主要方法。
apply_chat_template
( conversation: Union chat_template: Optional = None add_generation_prompt: bool = False tokenize: bool = True padding: bool = False truncation: bool = False max_length: Optional = None return_tensors: Union = None **tokenizer_kwargs ) → export const metadata = 'undefined';List[int]
参数
conversation
(Union[List[Dict[str, str]], “Conversation”) — 一个 Conversation 对象或包含“role”和“content”键的字典列表,表示到目前为止的聊天历史。chat_template
(str,可选) — 用于此转换的 Jinja 模板。如果未传递此参数,则将使用模型的默认聊天模板。add_generation_prompt
(bool,可选) — 是否以指示助手消息开始的标记结束提示。当您想要从模型生成响应时,这很有用。请注意,此参数将传递给聊天模板,因此必须在模板中支持此参数才能产生任何效果。tokenize
(bool
,默认为True
) — 是否对输出进行标记化。如果为False
,输出将是一个字符串。padding
(bool
,默认为False
) — 是否将序列填充到最大长度。如果 tokenize 为False
,则无效。truncation
(bool
,默认为False
) — 是否在最大长度处截断序列。如果 tokenize 为False
,则无效。max_length
(int
,可选) — 用于填充或截断的最大长度(以标记为单位)。如果未指定,则将使用分词器的max_length
属性作为默认值。return_tensors
(str
或 TensorType,可选) — 如果设置,将返回特定框架的张量。如果 tokenize 为False
,则无效。可接受的值为:
'tf'
:返回 TensorFlowtf.Tensor
对象。'pt'
:返回 PyTorchtorch.Tensor
对象。'np'
:返回 NumPynp.ndarray
对象。'jax'
:返回 JAXjnp.ndarray
对象。**tokenizer_kwargs — 传递给分词器的额外 kwargs。
返回
List[int]
表示到目前为止标记化聊天的标记 id 列表,包括控制标记。此输出已准备好直接传递给模型,或通过generate()
等方法传递。
将 Conversation 对象或包含"role"
和"content"
键的字典列表转换为标记 id 列表。此方法旨在与聊天模型一起使用,并将读取分词器的 chat_template 属性以确定在转换时要使用的格式和控制标记。当 chat_template 为 None 时,将退回到在类级别指定的 default_chat_template。
as_target_tokenizer
( )
临时设置用于编码目标的分词器。对于需要为标签进行稍微不同处理的序列到序列模型相关的分词器非常有用。
batch_decode
( sequences: Union skip_special_tokens: bool = False clean_up_tokenization_spaces: bool = None **kwargs ) → export const metadata = 'undefined';List[str]
参数
sequences
(Union[List[int], List[List[int]], np.ndarray, torch.Tensor, tf.Tensor]
) — 标记化输入 id 的列表。可以使用__call__
方法获得。skip_special_tokens
(bool
,可选,默认为False
) — 是否删除解码中的特殊标记。clean_up_tokenization_spaces
(bool
,可选) — 是否清除分词空格。如果为None
,将默认为self.clean_up_tokenization_spaces
。kwargs
(额外的关键字参数,可选) — 将传递给底层模型特定的解码方法。
返回
List[str]
解码的句子列表。
将标记 id 列表的列表转换为字符串列表,通过调用解码。
batch_encode_plus
( batch_text_or_text_pairs: Union add_special_tokens: bool = True padding: Union = False truncation: Union = None max_length: Optional = None stride: int = 0 is_split_into_words: bool = False pad_to_multiple_of: Optional = None return_tensors: Union = None return_token_type_ids: Optional = None return_attention_mask: Optional = None return_overflowing_tokens: bool = False return_special_tokens_mask: bool = False return_offsets_mapping: bool = False return_length: bool = False verbose: bool = True **kwargs ) → export const metadata = 'undefined';BatchEncoding
参数
batch_text_or_text_pairs
(List[str]
,List[Tuple[str, str]]
,List[List[str]]
,List[Tuple[List[str], List[str]]
,以及对于非快速分词器,还有List[List[int]]
,List[Tuple[List[int], List[int]]
) - 要编码的序列或序列对批次。这可以是字符串/字符串序列/整数序列列表或字符串/字符串序列/整数序列对列表(请参阅encode_plus
中的详细信息)。add_special_tokens
(bool
,可选,默认为True
) - 在编码序列时是否添加特殊标记。这将使用底层的PretrainedTokenizerBase.build_inputs_with_special_tokens
函数,该函数定义了自动添加到输入 id 的标记。如果要自动添加bos
或eos
标记,则这很有用。padding
(bool
,str
或 PaddingStrategy,可选,默认为False
) - 激活和控制填充。接受以下值:
True
或'longest'
:填充到批次中最长的序列(如果只提供了单个序列,则不进行填充)。'max_length'
: 使用参数max_length
指定的最大长度进行填充,或者如果未提供该参数,则使用模型的最大可接受输入长度。False
或'do_not_pad'
(默认):不进行填充(即,可以输出长度不同的序列批次)。
truncation
(bool
,str
或 TruncationStrategy,可选,默认为False
) - 激活和控制截断。接受以下值:
True
或'longest_first'
: 使用参数max_length
指定的最大长度进行截断,或者如果未提供该参数,则使用模型的最大可接受输入长度。这将逐个标记地截断,如果提供了一对序列(或一批序列),则从该对中最长的序列中删除一个标记。'only_first'
:使用参数max_length
指定的最大长度进行截断,或者如果未提供该参数,则使用模型的最大可接受输入长度。如果提供了一对序列(或一批序列),则仅截断第一个序列。'only_second'
:使用参数max_length
指定的最大长度进行截断,或者如果未提供该参数,则使用模型的最大可接受输入长度。如果提供了一对序列(或一批序列),则仅截断第二个序列。False
或'do_not_truncate'
(默认):不进行截断(即,可以输出长度大于模型最大可接受输入大小的序列批次)。
max_length
(int
,可选) - 控制截断/填充参数使用的最大长度。
如果未设置或设置为None
,则如果截断/填充参数中的一个需要最大长度,则将使用预定义的模型最大长度。如果模型没有特定的最大输入长度(如 XLNet),则将停用截断/填充到最大长度。stride
(int
,可选,默认为 0) - 如果与max_length
一起设置为一个数字,则当return_overflowing_tokens=True
时返回的溢出标记将包含从截断序列末尾返回的一些标记,以提供截断和溢出序列之间的一些重叠。此参数的值定义了重叠标记的数量。is_split_into_words
(bool
,可选,默认为False
) - 输入是否已经预分词(例如,已经分成单词)。如果设置为True
,则分词器会假定输入已经分成单词(例如,通过在空格上分割),然后对其进行分词。这对于 NER 或标记分类很有用。pad_to_multiple_of
(int
,可选) — 如果设置,将序列填充到提供的值的倍数。需要激活padding
。这对于在具有计算能力>= 7.5
(Volta)的 NVIDIA 硬件上启用 Tensor Cores 特别有用。return_tensors
(str
或 TensorType,可选) — 如果设置,将返回张量而不是 Python 整数列表。可接受的值为:
'tf'
:返回 TensorFlowtf.constant
对象。'pt'
:返回 PyTorchtorch.Tensor
对象。'np'
:返回 Numpynp.ndarray
对象。
return_token_type_ids
(bool
,可选) — 是否返回标记类型 ID。如果保持默认设置,将根据特定分词器的默认值返回标记类型 ID,由return_outputs
属性定义。
什么是 token type IDs?return_attention_mask
(bool
,可选) — 是否返回注意力掩码。如果保持默认设置,将根据特定分词器的默认值返回注意力掩码,由return_outputs
属性定义。
什么是 attention masks?return_overflowing_tokens
(bool
,可选,默认为False
) — 是否返回溢出的标记序列。如果提供了一对输入 id 序列(或一批对)并且truncation_strategy = longest_first
或True
,则会引发错误,而不是返回溢出的标记。return_special_tokens_mask
(bool
,可选,默认为False
) — 是否返回特殊标记掩码信息。return_offsets_mapping
(bool
,可选,默认为False
) — 是否返回每个标记的(char_start, char_end)
。
仅适用于继承自 PreTrainedTokenizerFast 的快速分词器,如果使用 Python 的分词器,此方法将引发NotImplementedError
。return_length
(bool
,可选,默认为False
) — 是否返回编码输入的长度。verbose
(bool
,可选,默认为True
) — 是否打印更多信息和警告。**kwargs — 传递给self.tokenize()
方法
返回
BatchEncoding
具有以下字段的 BatchEncoding:
input_ids
— 要提供给模型的标记 id 列表。
什么是输入 ID?token_type_ids
— 要提供给模型的标记类型 id 列表(当return_token_type_ids=True
或*token_type_ids
*在self.model_input_names
中时)。
什么是 token type IDs?attention_mask
— 指定哪些标记应该被模型关注的索引列表(当return_attention_mask=True
或*attention_mask
*在self.model_input_names
中时)。
什么是 attention masks?overflowing_tokens
— 溢出标记序列的列表(当指定max_length
和return_overflowing_tokens=True
时)。num_truncated_tokens
— 截断的标记数量(当指定max_length
和return_overflowing_tokens=True
时)。special_tokens_mask
— 0 和 1 的列表,其中 1 指定添加的特殊标记,0 指定常规序列标记(当add_special_tokens=True
和return_special_tokens_mask=True
时)。length
— 输入的长度(当return_length=True
时)
对一组序列或一组序列对进行标记化和准备模型。
此方法已弃用,应改用__call__
。
build_inputs_with_special_tokens
( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
) — 第一个标记化序列。token_ids_1
(List[int]
,可选)—第二个标记化序列。
返回
List[int]
带有特殊标记的模型输入。
通过连接和添加特殊标记,从序列或序列对构建用于序列分类任务的模型输入。
此实现不添加特殊标记,应该在子类中重写此方法。
clean_up_tokenization
( out_string: str ) → export const metadata = 'undefined';str
参数
out_string
(str
)—要清理的文本。
返回
str
清理后的字符串。
清理一系列简单的英语分词工件,如标点符号前的空格和缩写形式。
convert_tokens_to_string
( tokens: List ) → export const metadata = 'undefined';str
参数
tokens
(List[str]
)—要连接的标记。
返回
str
连接的标记。
将一系列标记转换为单个字符串。最简单的方法是" ".join(tokens)
,但我们经常希望同时删除子词标记化工件。
create_token_type_ids_from_sequences
( token_ids_0: List token_ids_1: Optional = None ) → export const metadata = 'undefined';List[int]
参数
token_ids_0
(List[int]
)—第一个标记化序列。token_ids_1
(List[int]
,可选)—第二个标记化序列。
返回
List[int]
标记类型 ID。
创建与传递的序列相对应的标记类型 ID。什么是标记类型 ID?
如果模型有特殊的构建方式,则应在子类中重写。
decode
( token_ids: Union skip_special_tokens: bool = False clean_up_tokenization_spaces: bool = None **kwargs ) → export const metadata = 'undefined';str
参数
token_ids
(Union[int]
,List[int]
,np.ndarray
,torch.Tensor
,tf.Tensor
)—标记化输入 ID 的列表。可以使用__call__
方法获得。skip_special_tokens
(bool
,可选,默认为False
)—是否在解码中删除特殊标记。clean_up_tokenization_spaces
(bool
,可选)—是否清理分词空格。如果为None
,将默认为self.clean_up_tokenization_spaces
。kwargs
(额外的关键字参数,可选)—将传递给底层模型特定的解码方法。
返回
str
解码后的句子。
将 ID 序列转换为字符串,使用分词器和词汇表,并提供选项以删除特殊标记和清理分词空格。
类似于执行self.convert_tokens_to_string(self.convert_ids_to_tokens(token_ids))
。
Transformers 4.37 中文文档(九十九)(2)https://developer.aliyun.com/article/1564042