Transformers 4.37 中文文档(七十六)(4)

简介: Transformers 4.37 中文文档(七十六)

Transformers 4.37 中文文档(七十六)(3)https://developer.aliyun.com/article/1564178


模型架构

SeamlessM4T 具有一个多功能架构,可以平滑处理文本和语音的顺序生成。此设置包括两个序列到序列 (seq2seq) 模型。第一个模型将输入模态转换为翻译文本,而第二个模型从翻译文本生成称为“单元标记”的语音标记。

每种模态都有自己专用的编码器,具有独特的架构。此外,对于语音输出,一个受 HiFi-GAN 架构启发的声码器被放置在第二个 seq2seq 模型的顶部。

以下是生成过程的工作原理:

  • 输入文本或语音通过其特定编码器进行处理。
  • 解码器在所需语言中创建文本标记。
  • 如果需要语音生成,第二个遵循标准编码器-解码器结构的 seq2seq 模型会生成单元标记。
  • 然后,这些单元标记通过最终的声码器传递,产生实际的语音。

此模型由 ylacombe 贡献。原始代码可以在 这里 找到。

SeamlessM4TModel

transformers.SeamlessM4TModel

< source >

( config current_modality = 'text' )

参数

  • config (~SeamlessM4TConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。
  • current_modality (str, 可选,默认为 "text") — 默认模态。用于初始化模型。

原始的 SeamlessM4T 模型变压器,可用于所有可用任务(S2ST、S2TT、T2TT、T2ST)。此模型是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有相关信息。

generate

< source >

( input_ids: Optional = None input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 generate_speech: Optional = True **kwargs ) → export const metadata = 'undefined';Union[SeamlessM4TGenerationOutput, Tuple[Tensor], ModelOutput]

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 词汇表中输入序列标记的索引。
    可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()。
    什么是输入 ID?
  • input_features (torch.FloatTensor of shape (batch_size, sequence_length, num_banks), optional) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。
  • return_intermediate_token_ids (bool, optional) — 如果为True,还会返回中间生成的文本和单元标记。如果您还想在音频旁边获取翻译文本,则设置为True。请注意,如果generate_speech=True,则此参数将被忽略。
  • tgt_lang (str, optional) — 用作翻译目标语言的语言。
  • spkr_id (int, optional, defaults to 0) — 用于语音合成的说话者 id。必须小于config.vocoder_num_spkrs
  • generate_speech (bool, optional, defaults to True) — 如果为False,将仅返回文本标记,不会生成语音。
  • kwargs (optional) — 将传递给 GenerationMixin.generate()的剩余关键字参数字典。关键字参数有两种类型:
  • 如果没有前缀,它们将作为generate方法的**kwargs输入到每个子模型中,除了decoder_input_ids只会通过文本组件传递。
  • 带有*text_speech_*前缀,它们将分别作为文本模型和语音模型的generate方法的输入。它优先于没有前缀的关键字。
  • 这意味着您可以例如为一个生成指定一种生成策略,但对另一个不指定。

返回

Union[SeamlessM4TGenerationOutput, Tuple[Tensor], ModelOutput]

  • 如果generate_speechreturn_intermediate_token_ids,则返回SeamlessM4TGenerationOutput
  • 如果generate_speech且不是return_intermediate_token_ids,则返回形状为(batch_size, sequence_length)的波形和waveform_lengths的元组,其中给出每个样本的长度。
  • 如果generate_speech=False,它将返回ModelOutput

生成翻译的标记 id 和/或翻译的音频波形。

此方法连续调用两个不同子模型的.generate函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的前缀参数。

例如,调用.generate(input_ids=input_ids, num_beams=4, speech_do_sample=True)将在文本模型上连续执行波束搜索解码,并在语音模型上执行多项式波束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南。

SeamlessM4TForTextToSpeech

class transformers.SeamlessM4TForTextToSpeech

<来源>

( config: SeamlessM4TConfig )

参数

  • config (~SeamlessM4TConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained()方法加载模型权重。

用于 T2ST 的文本到语音 SeamlessM4T 模型变换器。此模型是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取与一般用法和行为相关的所有事项。

generate

<来源>

( input_ids: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 **kwargs ) → export const metadata = 'undefined';Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]

参数

  • input_ids (torch.LongTensor,形状为(batch_size, sequence_length)) — 词汇表中输入序列标记的索引。
    可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。查看 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()获取详细信息。
    什么是输入 ID?
  • return_intermediate_token_ids (bool可选) — 如果为True,还会返回中间生成的文本和单元标记。如果您还想在音频旁边获取翻译文本,请设置为True
  • tgt_lang (str可选) — 用作翻译目标语言的语言。
  • spkr_id (int可选,默认为 0) — 用于语音合成的说话者的 id。必须小于config.vocoder_num_spkrs
  • kwargs (可选) — 将传递给 GenerationMixin.generate()的剩余关键字参数字典。关键字参数有两种类型:
  • 没有前缀,它们将作为**kwargs输入到每个子模型的generate方法中,除了decoder_input_ids,它只会通过文本组件传递。
  • 带有*text_speech_*前缀,它们将成为文本模型和语音模型的generate方法的输入。它优先于没有前缀的关键字。
  • 这意味着您可以为一个生成策略指定一个生成策略,但不能为另一个生成策略指定生成策略。

返回

Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]

  • 如果return_intermediate_token_ids,返回SeamlessM4TGenerationOutput
  • 如果不是return_intermediate_token_ids,返回一个由形状为(batch_size, sequence_length)的波形和waveform_lengths组成的元组,其中给出每个样本的长度。

生成翻译后的音频波形。

此方法连续调用两个不同子模型的.generate函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的一般参数,或将传递给其中一个模型的带前缀的参数。

例如,调用.generate(input_ids, num_beams=4, speech_do_sample=True)将在文本模型上连续执行波束搜索解码,并在语音模型上执行多项式波束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南。

SeamlessM4TForSpeechToSpeech

class transformers.SeamlessM4TForSpeechToSpeech

<来源>

( config )

参数

  • config (~SeamlessM4TConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。

可用于 S2ST 的语音到语音 SeamlessM4T 模型变换器。此模型是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有信息。

generate

<来源>

( input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 **kwargs ) → export const metadata = 'undefined';Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]

参数

  • input_features (torch.FloatTensor,形状为(batch_size, sequence_length, num_banks)) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。
  • return_intermediate_token_ids (bool, 可选) — 如果为True,还会返回中间生成的文本和单元标记。如果您还想在音频旁边获取翻译文本,请设置为True
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • spkr_id (int, 可选,默认为 0) — 用于语音合成的说话者的 id。必须小于config.vocoder_num_spkrs
  • kwargs (可选) — 将传递给 GenerationMixin.generate()的剩余关键字参数字典。关键字参数有两种类型:
  • 如果没有前缀,它们将作为**kwargs输入到每个子模型的generate方法中,除了decoder_input_ids只会通过文本组件传递。
  • 使用*text_speech_*前缀,它们将分别作为文本模型和语音模型的generate方法的输入。它优先于没有前缀的关键字。
  • 这意味着您可以为一个生成指定生成策略,但对另一个生成不指定。

返回

Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]

  • 如果return_intermediate_token_ids,则返回SeamlessM4TGenerationOutput
  • 如果不是return_intermediate_token_ids,则返回一个由形状为(batch_size, sequence_length)的波形和给出每个样本长度的waveform_lengths组成的元组。

生成翻译音频波形。

此方法连续调用两个不同子模型的.generate函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的一般参数,或将传递给其中一个模型的前缀参数。

例如,调用.generate(input_features, num_beams=4, speech_do_sample=True)将在文本模型上连续执行波束搜索解码,并在语音模型上执行多项式波束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南。

SeamlessM4TForTextToText

class transformers.SeamlessM4TForTextToText

<来源>

( config: SeamlessM4TConfig )

参数

  • config(~SeamlessM4TConfig)- 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained()方法以加载模型权重。

文本到文本 SeamlessM4T 模型变压器可用于 T2TT。此模型是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般用法和行为的所有相关信息。

forward

<来源>

( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )

参数

  • input_ids(形状为(batch_size, sequence_length)torch.LongTensor可选)- 词汇表中输入序列标记的索引。
    可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()。
    什么是输入 ID?
  • attention_mask(形状为(batch_size, sequence_length)torch.FloatTensor可选)- 用于避免在填充标记索引上执行注意力的掩码。选择的掩码值在[0, 1]中:
  • 对于未被masked的标记,为 1。
  • 对于被masked的标记,为 0。
  • 什么是注意力掩码?
  • decoder_input_ids(形状为(batch_size, target_sequence_length)torch.LongTensor可选)- 词汇表中解码器输入序列标记的索引。
    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()。
    什么是解码器输入 ID?
    Bart 使用eos_token_id作为decoder_input_ids生成的起始标记。如果使用past_key_values,则可选择仅输入最后的decoder_input_ids(请参阅past_key_values)。
    用于翻译和总结训练,应提供decoder_input_ids。如果未提供decoder_input_ids,模型将根据论文将input_ids向右移动以进行去噪预训练来创建此张量。
  • decoder_attention_mask(形状为(batch_size, target_sequence_length)torch.LongTensor可选)- 默认行为:生成一个张量,忽略decoder_input_ids中的填充标记。因果掩码也将默认使用。
    如果要更改填充行为,您应该阅读modeling_bart._prepare_decoder_attention_mask并根据您的需求进行修改。有关默认策略的更多信息,请参见论文中的图表 1。
  • encoder_outputs (tuple(tuple(torch.FloatTensor), optional) — 元组包含(last_hidden_state, optional: hidden_states, optional: attentions) last_hidden_state的形状为(batch_size, sequence_length, hidden_size)optional)是编码器最后一层输出的隐藏状态序列。用于解码器的交叉注意力。
  • past_key_values (tuple(tuple(torch.FloatTensor)), optional, 当传递use_cache=Trueconfig.use_cache=True时返回) — 长度为config.n_layers的元组,每个元组包含 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)的张量和 2 个额外的形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)的张量。
    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码(请参见past_key_values输入)。
    如果使用了past_key_values,用户可以选择仅输入形状为(batch_size, 1)的最后decoder_input_ids(那些没有将它们的过去键值状态提供给此模型的输入),而不是形状为(batch_size, sequence_length)的所有decoder_input_ids
  • inputs_embeds (torch.FloatTensor of shape(batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递input_ids。如果您希望更好地控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。
  • decoder_inputs_embeds (torch.FloatTensor of shape (batch_size, target_sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递decoder_input_ids。如果使用了past_key_values,可以选择仅输入最后的decoder_inputs_embeds(请参见past_key_values)。如果您希望更好地控制如何将decoder_input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,这将非常有用。
    如果decoder_input_idsdecoder_inputs_embeds都未设置,则decoder_inputs_embeds将取inputs_embeds的值。
  • labels (torch.LongTensor of shape (batch_size, sequence_length), optional) — 用于计算掩码语言建模损失的标签。索引应在[-100, 0, ..., config.vocab_size]范围内(请参见input_ids文档字符串)。索引设置为-100的标记将被忽略(掩码),损失仅计算具有标签在[0, ..., config.vocab_size]范围内的标记。
  • use_cache (bool, optional) — 如果设置为True,将返回past_key_values键值状态,并可用于加速解码(请参见past_key_values)。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量下的attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量下的hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通的元组。

SeamlessM4TForTextToText 的前向方法重写了__call__特殊方法。

虽然前向传递的步骤需要在此函数内定义,但应该在此之后调用Module实例,而不是在此处调用,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

generate

< source >

( input_ids = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) → export const metadata = 'undefined';ModelOutput or torch.LongTensor

参数

  • input_ids(根据模态性质的不同形状的torch.Tensor可选) — 词汇表中输入序列令牌的索引。
    可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()。
    什么是输入 ID?
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • generation_config (~generation.GenerationConfig, 可选) — 用作生成调用的基本参数化的生成配置。与generation_config属性匹配的**kwargs传递给 generate 将覆盖它们。如果未提供generation_config,将使用默认值,其加载优先级如下:1)从generation_config.json模型文件中获取,如果存在;2)从模型配置中获取。请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。
  • logits_processor (LogitsProcessorList, 可选) — 自定义 logits 处理器,用于补充从参数和生成配置构建的默认 logits 处理器。如果传递了已经使用参数或生成配置创建的 logit 处理器,则会抛出错误。此功能适用于高级用户。
  • stopping_criteria (StoppingCriteriaList, 可选) — 自定义停止标准,用于补充从参数和生成配置构建的默认停止标准。如果传递了已经使用参数或生成配置创建的停止标准,则会抛出错误。此功能适用于高级用户。
  • prefix_allowed_tokens_fn (Callable[[int, torch.Tensor], List[int]], 可选) — 如果提供,此函数将在每个步骤中将 beam 搜索限制为仅允许的令牌。如果未提供,则不应用约束。此函数接受 2 个参数:批次 IDbatch_idinput_ids。它必须返回一个列表,其中包含下一代步骤的允许令牌,条件是批次 IDbatch_id和先前生成的令牌inputs_ids。此参数对于基于前缀的受约束生成很有用,如自回归实体检索中所述。
  • synced_gpus (bool, 可选,默认为False) — 是否继续运行 while 循环直到 max_length(需要 ZeRO 阶段 3)
  • kwargs (Dict[str, Any], 可选) — generate_config的特定参数化和/或将转发到模型的forward函数的其他模型特定 kwargs。

返回

ModelOutput 或torch.LongTensor

一个 ModelOutput(如果return_dict_in_generate=True或当config.return_dict_in_generate=True时)或一个torch.FloatTensor。可能的 ModelOutput 类型为:

  • GenerateEncoderDecoderOutput,
  • GenerateBeamEncoderDecoderOutput

生成标记 ID 序列。

大多数生成控制参数都在generation_config中设置,如果未传递,则将设置为模型的默认生成配置。您可以通过传递相应的参数给 generate()来覆盖任何generation_config,例如.generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南。

SeamlessM4TForSpeechToText

class transformers.SeamlessM4TForSpeechToText

<来源>

( config: SeamlessM4TConfig )

参数

  • config(~SeamlessM4TConfig)— 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained()方法以加载模型权重。

语音到文本 SeamlessM4T 模型变压器,可用于 S2TT。此模型是 PyTorch torch.nn.Module子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取与一般用法和行为相关的所有事项。

前进

<来源>

( input_features: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )

参数

  • input_features(形状为(batch_size, sequence_length, num_banks)torch.FloatTensor)— 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。
  • attention_mask(形状为(batch_size, sequence_length)torch.FloatTensor可选)— 用于避免在填充标记索引上执行注意力的掩码。选择的掩码值在[0, 1]中。
  • 1 代表未被“掩盖”的标记,
  • 0 代表被“掩盖”的标记。
  • 什么是注意力掩码?
  • decoder_input_ids(形状为(batch_size, target_sequence_length)torch.LongTensor可选)— 词汇表中解码器输入序列标记的索引。
    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()和 PreTrainedTokenizer.call()。
    解码器输入 ID 是什么?
    Bart 使用eos_token_id作为decoder_input_ids生成的起始标记。如果使用past_key_values,则可以选择仅输入最后的decoder_input_ids(请参阅past_key_values)。
    对于翻译和摘要训练,应提供decoder_input_ids。如果未提供decoder_input_ids,模型将通过将input_ids向右移动来创建此张量,以进行去噪预训练,遵循论文。
  • decoder_attention_mask(形状为(batch_size, target_sequence_length)torch.LongTensor可选)— 默认行为:生成一个忽略decoder_input_ids中填充标记的张量。因果掩码也将默认使用。
    如果您想要更改填充行为,您应该阅读modeling_bart._prepare_decoder_attention_mask并根据您的需求进行修改。有关默认策略的更多信息,请参阅论文中的图表 1。
  • encoder_outputs (tuple(tuple(torch.FloatTensor), optional) — 元组包括(last_hidden_state, optional: hidden_states, optional: attentions) last_hidden_state的形状为(batch_size, sequence_length, hidden_size)optional)是编码器最后一层输出的隐藏状态序列。用于解码器的交叉注意力。
  • past_key_values (tuple(tuple(torch.FloatTensor)), optional, 当传递use_cache=Trueconfig.use_cache=True时返回) — 长度为config.n_layers的元组,每个元组有 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)的张量和 2 个额外的形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)的张量。
    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码(请参阅past_key_values输入)。
    如果使用了past_key_values,用户可以选择仅输入形状为(batch_size, 1)的最后decoder_input_ids(这些没有将其过去键值状态提供给此模型的)而不是所有形状为(batch_size, sequence_length)decoder_input_ids
  • inputs_embeds (torch.FloatTensor的形状为(batch_size, sequence_length, hidden_size)optional) — 可选地,您可以选择直接传递嵌入表示而不是传递input_ids。如果您想要更多控制如何将input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。
  • decoder_inputs_embeds (torch.FloatTensor的形状为(batch_size, target_sequence_length, hidden_size)optional) — 可选地,您可以选择直接传递嵌入表示而不是传递decoder_input_ids。如果使用了past_key_values,则只需输入最后的decoder_inputs_embeds(参见past_key_values)。如果您想要更多控制如何将decoder_input_ids索引转换为相关向量,而不是使用模型的内部嵌入查找矩阵,则这很有用。
    如果decoder_input_idsdecoder_inputs_embeds都未设置,则decoder_inputs_embedsinputs_embeds的值。
  • labels (torch.LongTensor的形状为(batch_size, sequence_length)optional) — 用于计算掩码语言建模损失的标签。索引应在[-100, 0, ..., config.vocab_size]内(请参阅input_ids文档字符串)。索引设置为-100的标记将被忽略(掩码),损失仅计算具有标签在[0, ..., config.vocab_size]内的标记。
  • use_cache (bool, optional) — 如果设置为True,则返回past_key_values键值状态,并可用于加速解码(请参阅past_key_values)。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量中的attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。

SeamlessM4TForSpeechToText 的前向方法,覆盖了__call__特殊方法。

尽管前向传递的方法需要在此函数内定义,但应该在此之后调用Module实例而不是此函数,因为前者会负责运行预处理和后处理步骤,而后者会默默地忽略它们。

generate

<来源>

( input_features = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) → export const metadata = 'undefined';ModelOutput or torch.LongTensor

参数

  • input_features(形状为(batch_size, sequence_length, num_banks)torch.FloatTensor)— 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。
  • tgt_langstr可选)— 用作翻译目标语言的语言。
  • generation_config~generation.GenerationConfig可选)— 用作生成调用的基本参数化的生成配置。传递给生成匹配generation_config属性的**kwargs将覆盖它们。如果未提供generation_config,将使用默认值,其加载优先级如下:1)来自generation_config.json模型文件,如果存在;2)来自模型配置。请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。
  • logits_processorLogitsProcessorList可选)— 自定义 logits 处理器,补充从参数和生成配置构建的默认 logits 处理器。如果传递的 logit 处理器已经使用参数或生成配置创建,则会引发错误。此功能适用于高级用户。
  • stopping_criteriaStoppingCriteriaList可选)— 自定义停止标准,补充从参数和生成配置构建的默认停止标准。如果传递的停止标准已经使用参数或生成配置创建,则会引发错误。此功能适用于高级用户。
  • prefix_allowed_tokens_fnCallable[[int, torch.Tensor], List[int]]可选)— 如果提供,此函数将限制每一步的波束搜索仅允许特定的标记。如果未提供,则不应用任何约束。此函数接受 2 个参数:批次 ID batch_idinput_ids。它必须返回一个列表,其中包含下一代步的允许标记,条件是批次 ID batch_id 和先前生成的标记 inputs_ids。此参数对于基于前缀的受限生成很有用,如自回归实体检索中所述。
  • synced_gpusbool可选,默认为False)— 是否继续运行 while 循环直到 max_length(对于 ZeRO 阶段 3 是必需的)
  • kwargsDict[str, Any]可选)— generate_config的特定参数化和/或将转发到模型的forward函数的其他模型特定 kwargs。

返回

ModelOutput 或torch.LongTensor

一个 ModelOutput(如果return_dict_in_generate=True或当config.return_dict_in_generate=True时)或一个torch.FloatTensor。可能的 ModelOutput 类型是:

  • GenerateEncoderDecoderOutput,
  • GenerateBeamEncoderDecoderOutput

生成标记 id 序列。

大多数控制生成的参数设置在generation_config中,如果未传递,则将设置为模型的默认生成配置。您可以通过将相应参数传递给 generate()来覆盖任何generation_config,例如.generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南。

SeamlessM4TConfig

class transformers.SeamlessM4TConfig

<来源>

( vocab_size = 256102 t2u_vocab_size = 10082 hidden_size = 1024 initializer_range = 0.02 layer_norm_eps = 1e-05 use_cache = True max_position_embeddings = 1024 is_encoder_decoder = True encoder_layerdrop = 0.05 decoder_layerdrop = 0.05 activation_function = 'relu' dropout = 0.1 attention_dropout = 0.1 activation_dropout = 0.0 scale_embedding = True encoder_layers = 24 encoder_ffn_dim = 8192 encoder_attention_heads = 16 decoder_layers = 24 decoder_ffn_dim = 8192 decoder_attention_heads = 16 decoder_start_token_id = 3 max_new_tokens = 256 pad_token_id = 0 bos_token_id = 2 eos_token_id = 3 speech_encoder_layers = 24 speech_encoder_attention_heads = 16 speech_encoder_intermediate_size = 4096 speech_encoder_hidden_act = 'swish' speech_encoder_dropout = 0.0 add_adapter = True speech_encoder_layerdrop = 0.1 feature_projection_input_dim = 160 num_conv_pos_embeddings = 128 num_conv_pos_embedding_groups = 16 adaptor_kernel_size = 8 adaptor_stride = 8 adaptor_dropout = 0.1 num_adapter_layers = 1 position_embeddings_type = 'relative' rotary_embedding_base = 10000 max_source_positions = 4096 conv_depthwise_kernel_size = 31 t2u_bos_token_id = 0 t2u_pad_token_id = 1 t2u_eos_token_id = 2 t2u_decoder_start_token_id = 2 t2u_max_new_tokens = 1024 t2u_encoder_layers = 6 t2u_encoder_ffn_dim = 8192 t2u_encoder_attention_heads = 16 t2u_decoder_layers = 6 t2u_decoder_ffn_dim = 8192 t2u_decoder_attention_heads = 16 t2u_max_position_embeddings = 2048 sampling_rate = 16000 upsample_initial_channel = 512 upsample_rates = [5, 4, 4, 2, 2] upsample_kernel_sizes = [11, 8, 8, 4, 4] resblock_kernel_sizes = [3, 7, 11] resblock_dilation_sizes = [[1, 3, 5], [1, 3, 5], [1, 3, 5]] leaky_relu_slope = 0.1 unit_hifi_gan_vocab_size = 10000 unit_embed_dim = 1280 lang_embed_dim = 256 spkr_embed_dim = 256 vocoder_num_langs = 36 vocoder_num_spkrs = 200 variance_predictor_kernel_size = 3 var_pred_dropout = 0.5 vocoder_offset = 4 **kwargs )

参数

  • vocab_size (int, optional, 默认为 256102) — SeamlessM4T 模型的词汇表大小。定义了在调用SeamlessM4TModel、SeamlessM4TForTextToSpeech 或~SeamlessM4TForTextToText 时可以表示的不同标记数量。
  • t2u_vocab_size (int, optional, 默认为 10082) — SeamlessM4T 模型的单元词汇表大小。定义了在调用SeamlessM4TModel、SeamlessM4TForSpeechToSpeech 或~SeamlessM4TForTextToSpeech 时可以表示的不同单元标记数量。

在子模型之间共享的参数

  • hidden_size (int, optional, 默认为 1024) — 架构中“中间”层的维度。
  • initializer_range (float, optional, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float, optional, 默认为 1e-05) — 层归一化层使用的 epsilon。
  • use_cache (bool, optional, 默认为 True) — 模型是否应返回最后一个键/值注意力(并非所有模型都使用)。
  • max_position_embeddings (int, optional, 默认为 1024) — 此模型文本编码器和解码器可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512 或 1024 或 2048)。
  • is_encoder_decoder (bool, optional, 默认为 True) — 模型是否用作编码器/解码器。
  • encoder_layerdrop (float, optional, 默认为 0.05) — 编码器的 LayerDrop 概率。更多细节请参阅LayerDrop 论文
  • decoder_layerdrop (float, optional, 默认为 0.05) — 解码器的 LayerDrop 概率。更多细节请参阅LayerDrop 论文
  • activation_function (strfunction, optional, 默认为 "relu") — 解码器和前馈层中的非线性激活函数(函数或字符串)。如果是字符串,支持 "gelu", "relu", "selu", "swish""gelu_new"
  • dropout (float, optional, 默认为 0.1) — 嵌入层、编码器、解码器和池化器中所有全连接层的 dropout 概率。
  • attention_dropout (float, optional, 默认为 0.1) — 所有注意力层的 dropout 概率。
  • activation_dropout (float, optional, 默认为 0.0) — 模型中所有激活层的 dropout 概率。
  • scale_embedding (bool, optional, 默认为 True) — 通过将其除以 sqrt(d_model)来缩放嵌入。

文本编码器和文本解码器特定参数

  • encoder_layers (int, optional, defaults to 24) — Transformer 文本编码器中的隐藏层数量。
  • encoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本编码器中“中间”(即前馈)层的维度。
  • encoder_attention_heads (int, optional, defaults to 16) — Transformer 文本编码器中每个注意力层的注意力头数。
  • decoder_layers (int, optional, defaults to 24) — Transformer 文本解码器中的隐藏层数量。
  • decoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本解码器中“中间”(即前馈)层的维度。
  • decoder_attention_heads (int, optional, defaults to 16) — Transformer 文本解码器中每个注意力层的注意力头数。
  • decoder_start_token_id (int, optional, defaults to 3) — 如果编码器-解码器模型以与bos不同的标记开始解码,则该标记的 id。仅在文本解码器中应用。
  • max_new_tokens (int, optional, defaults to 256) — 生成的文本标记的最大数量,忽略提示中的标记数量。
  • pad_token_id (int, optional, defaults to 0) — 填充文本标记的 id。仅适用于文本解码器模型。
  • bos_token_id (int, optional, defaults to 2) — 流的开头文本标记的 id。仅适用于文本解码器模型。
  • eos_token_id (int, optional, defaults to 3) — 流的结尾文本标记的 id。仅适用于文本解码器模型。

语音编码器特定参数

  • speech_encoder_layers (int, optional, defaults to 24) — Transformer 语音编码器中的隐藏层数量。
  • speech_encoder_attention_heads (int, optional, defaults to 16) — Transformer 语音编码器中每个注意力层的注意力头数。
  • speech_encoder_intermediate_size (int, optional, defaults to 4096) — Transformer 语音编码器中“中间”(即前馈)层的维度。
  • speech_encoder_hidden_act (str or function, optional, defaults to "swish") — 语音编码器中的非线性激活函数(函数或字符串)。如果是字符串,支持"gelu""relu""selu""swish""gelu_new"
  • speech_encoder_dropout (float, optional, defaults to 0.0) — 语音编码器中所有层的 dropout 概率。
  • add_adapter (bool, optional, defaults to True) — 在语音编码器顶部添加一个适配器层。
  • speech_encoder_layerdrop (float, optional, defaults to 0.1) — 语音编码器的 LayerDrop 概率。有关更多详细信息,请参阅LayerDrop 论文
  • feature_projection_input_dim (int, optional, defaults to 160) — 语音编码器输入特征投影的输入维度,即在使用 SeamlessM4TFeatureExtractor 处理输入音频后的维度。
  • num_conv_pos_embeddings (int, optional, defaults to 128) — 卷积位置嵌入的数量。定义语音编码器的 1D 卷积位置嵌入层的内核大小。
  • num_conv_pos_embedding_groups (int, optional, defaults to 16) — 语音编码器的 1D 卷积位置嵌入层的组数。
  • adaptor_kernel_size (int, optional, defaults to 8) — 适配器网络中卷积层的内核大小。仅在add_adapter为 True 时相关。
  • adaptor_stride (int, optional, defaults to 8) — 适配器网络中卷积层的步幅。仅在add_adapter为 True 时相关。
  • adaptor_dropout (float, optional, defaults to 0.1) — 语音适配器中所有层的 dropout 概率。
  • num_adapter_layers (int, optional, defaults to 1) — 适配器网络中应使用的卷积层数。仅在add_adapter为 True 时相关。
  • position_embeddings_type (str, optional, defaults to "relative") — 可以指定为relativerotary,分别用于相对或旋转位置嵌入。如果保持为None,则不应用相对位置嵌入。仅应用于语音编码器。
  • rotary_embedding_base (int, optional, defaults to 10000) — 如果使用"rotary"位置嵌入,则定义嵌入基数的大小。仅应用于语音编码器。
  • max_source_positions (int, optional, defaults to 4096) — 如果使用"relative"位置嵌入,则定义最大源输入位置。仅应用于语音编码器。
  • conv_depthwise_kernel_size (int, optional, defaults to 31) — Conformer 块中卷积深度 1D 层的内核大小。仅应用于语音编码器。

文本到单元组件(t2u)模型特定参数

  • t2u_bos_token_id (int, optional, defaults to 0) — beginning-of-stream单元标记的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_pad_token_id (int, optional, defaults to 1) — padding单元标记的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_eos_token_id (int, optional, defaults to 2) — end-of-stream单元标记的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_decoder_start_token_id (int, optional, defaults to 2) — 如果编码器-解码器模型以与bos不同的标记开始解码,则为该标记的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_max_new_tokens (int, optional, defaults to 1024) — 生成的单元标记的最大数量,忽略提示中的标记数量。仅应用于文本到单元 seq2seq 模型。
  • t2u_encoder_layers (int, optional, defaults to 6) — Transformer 文本到单元编码器中的隐藏层数量。
  • t2u_encoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元编码器中“中间”(即前馈)层的维度。
  • t2u_encoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元编码器中每个注意力层的注意力头数。
  • t2u_decoder_layers (int, optional, defaults to 6) — Transformer 文本到单元解码器中的隐藏层数量。
  • t2u_decoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元解码器中“中间”(即前馈)层的维度。
  • t2u_decoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元解码器中每个注意力层的注意力头数。
  • t2u_max_position_embeddings (int, optional, defaults to 2048) — 此模型文本到单元组件可能会使用的最大序列长度。通常将其设置为较大的值以防万一(例如 512、1024 或 2048)。

Hifi-Gan 声码器特定参数

  • sampling_rate (int, optional, defaults to 16000) — 生成输出音频的采样率,以赫兹(Hz)表示。
  • upsample_initial_channel (int, optional, defaults to 512) — 输入通道数到 hifi-gan 上采样网络的数量。仅适用于声码器。
  • upsample_rates (Tuple[int] or List[int], optional, defaults to [5, 4, 4, 2, 2]) — 一个整数元组,定义声码器上采样网络中每个 1D 卷积层的步幅。upsample_rates的长度定义了卷积层的数量,并且必须与upsample_kernel_sizes的长度匹配。仅适用于声码器。
  • upsample_kernel_sizes (Tuple[int]List[int], optional, 默认为[11, 8, 8, 4, 4]) — 一个整数元组,定义声码器上采样网络中每个 1D 卷积层的内核大小。upsample_kernel_sizes的长度定义了卷积层的数量,并且必须与upsample_rates的长度匹配。仅适用于声码器。
  • resblock_kernel_sizes (Tuple[int]List[int], optional, 默认为[3, 7, 11]) — 一个整数元组,定义多接受域融合(MRF)模块中声码器 1D 卷积层的内核大小。仅适用于声码器。
  • resblock_dilation_sizes (Tuple[Tuple[int]]List[List[int]], optional, 默认为[[1, 3, 5], [1, 3, 5], [1, 3, 5]]) — 一个嵌套的整数元组,定义多接受域融合(MRF)模块中声码器扩张的 1D 卷积层的扩张率。仅适用于声码器。
  • leaky_relu_slope (float, optional, 默认为 0.1) — 在声码器中使用的 leaky ReLU 激活的负斜率角度。仅适用于声码器。
  • unit_hifi_gan_vocab_size (int, optional, 默认为 10000) — SeamlessM4T 声码器的词汇大小。定义了在调用SeamlessM4TModel、SeamlessM4TForSpeechToSpeech 或~SeamlessM4TForTextToSpeech 时可以表示的不同单元标记数量。
  • unit_embed_dim (int, optional, 默认为 1280) — 提供给 hifi-gan 声码器的输入 id 的投影维度。仅适用于声码器。
  • lang_embed_dim (int, optional, 默认为 256) — 提供给 hifi-gan 声码器的目标语言的投影维度。仅适用于声码器。
  • spkr_embed_dim (int, optional, 默认为 256) — 提供给 hifi-gan 声码器的说话人 id 的投影维度。仅适用于声码器。
  • vocoder_num_langs (int, optional, 默认为 36) — 声码器支持的语言数量。可能与t2u_num_langs不同。
  • vocoder_num_spkrs (int, optional, 默认为 200) — 声码器支持的说话人数量。
  • variance_predictor_kernel_size (int, optional, 默认为 3) — 持续预测器的内核大小。仅适用于声码器。
  • var_pred_dropout (float, optional, 默认为 0.5) — 持续预测器的 dropout 概率。仅适用于声码器。
  • vocoder_offset (int, optional, 默认为 4) — 将单元标记 id 偏移此数字以考虑符号标记。仅适用于声码器。

这是用于存储~SeamlessM4TModel 配置的配置类。根据指定的参数实例化一个 SeamlessM4T 模型,定义模型架构。使用默认值实例化配置将产生类似于 SeamlessM4T“facebook/hf-seamless-m4t-medium”架构的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档以获取更多信息。

>>> from transformers import SeamlessM4TModel, SeamlessM4TConfig
>>> # Initializing a SeamlessM4T "facebook/hf-seamless-m4t-medium" style configuration
>>> configuration = SeamlessM4TConfig()
>>> # Initializing a model from the "facebook/hf-seamless-m4t-medium" style configuration
>>> model = SeamlessM4TModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config


Transformers 4.37 中文文档(七十六)(5)https://developer.aliyun.com/article/1564180

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
1月前
|
存储 自然语言处理 测试技术
Transformers 4.37 中文文档(四十五)(4)
Transformers 4.37 中文文档(四十五)
29 1
|
1月前
|
PyTorch 算法框架/工具 索引
Transformers 4.37 中文文档(四十五)(5)
Transformers 4.37 中文文档(四十五)
27 0
|
1月前
|
缓存 PyTorch 异构计算
Transformers 4.37 中文文档(四十五)(1)
Transformers 4.37 中文文档(四十五)
34 2
|
1月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(四十五)(9)
Transformers 4.37 中文文档(四十五)
24 2
|
1月前
|
自然语言处理 PyTorch 语音技术
Transformers 4.37 中文文档(七十六)(3)
Transformers 4.37 中文文档(七十六)
18 1
|
1月前
|
自然语言处理 PyTorch 算法框架/工具
Transformers 4.37 中文文档(七十六)(5)
Transformers 4.37 中文文档(七十六)
20 1
|
1月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(四十五)(7)
Transformers 4.37 中文文档(四十五)
17 0
|
1月前
|
PyTorch 算法框架/工具 索引
Transformers 4.37 中文文档(四十五)(6)
Transformers 4.37 中文文档(四十五)
140 0
|
1月前
|
存储 自然语言处理 Shell
Transformers 4.37 中文文档(七十六)(1)
Transformers 4.37 中文文档(七十六)
21 0
|
1月前
|
存储 PyTorch 算法框架/工具
Transformers 4.37 中文文档(七十六)(2)
Transformers 4.37 中文文档(七十六)
14 0