Transformers 文档

SeamlessM4T-v2

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

SeamlessM4T-v2

概述

SeamlessM4T-v2 模型由 Meta AI 的 Seamless Communication 团队在 Seamless: Multilingual Expressive and Streaming Speech Translation 中提出。

SeamlessM4T-v2 是一系列模型的集合,旨在提供高质量的翻译,使来自不同语言社区的人们能够通过语音和文本轻松交流。它是对先前版本的改进。有关 v1 和 v2 之间差异的更多详细信息,请参阅与 SeamlessM4T-v1 的差异部分。

SeamlessM4T-v2 无需依赖单独的模型即可实现多项任务

  • 语音到语音翻译 (S2ST)
  • 语音到文本翻译 (S2TT)
  • 文本到语音翻译 (T2ST)
  • 文本到文本翻译 (T2TT)
  • 自动语音识别 (ASR)

SeamlessM4Tv2Model 可以执行上述所有任务,但每个任务也有其自己专用的子模型。

以下是论文的摘要

自动语音翻译技术的最新进展显著扩展了语言覆盖范围,改进了多模态能力,并实现了广泛的任务和功能。尽管如此,与人与人之间的对话相比,当今的大规模自动语音翻译系统仍然缺乏关键功能,这些功能有助于机器介导的通信感觉无缝。在这项工作中,我们介绍了一系列模型,这些模型能够以流式方式实现端到端的富有表现力的多语言翻译。首先,我们贡献了大规模多语言和多模态 SeamlessM4T 模型的改进版本——SeamlessM4T v2。这个更新的模型,结合了更新的 UnitY2 框架,在更多低资源语言数据上进行了训练。扩展版本的 SeamlessAlign 增加了 114,800 小时的自动对齐数据,总共支持 76 种语言。SeamlessM4T v2 为我们最新的两个模型 SeamlessExpressive 和 SeamlessStreaming 的启动奠定了基础。SeamlessExpressive 实现了保留声音风格和韵律的翻译。与之前在富有表现力的语音研究方面的工作相比,我们的工作解决了韵律中某些未被充分探索的方面,例如语速和停顿,同时还保留了一个人的声音风格。至于 SeamlessStreaming,我们的模型利用高效单调多头注意力 (EMMA) 机制来生成低延迟的目标翻译,而无需等待完整的源语句。作为同类首创,SeamlessStreaming 实现了多种源语言和目标语言的同步语音到语音/文本翻译。为了理解这些模型的性能,我们结合了新颖的和修改后的现有自动指标,以评估韵律、延迟和鲁棒性。对于人工评估,我们调整了现有的协议,专门用于衡量意义、自然度和表现力保留中最相关的属性。为了确保我们的模型能够安全且负责任地使用,我们首次为多模态机器翻译实施了红队测试,一个用于检测和减轻添加的毒性的系统,对性别偏见的系统评估,以及旨在减弱深度伪造影响的听不见的本地化水印机制。因此,我们将 SeamlessExpressive 和 SeamlessStreaming 的主要组件结合在一起,形成了 Seamless,这是首个公开可用的系统,可实时解锁富有表现力的跨语言交流。总而言之,Seamless 为我们提供了一个关键的视角,让我们了解将通用语音翻译器从科幻概念转变为现实世界技术所需的技术基础。最后,这项工作中的贡献——包括模型、代码和水印检测器——已公开发布,可通过以下链接访问。

用法

在以下示例中,我们将加载一个阿拉伯语音频样本和一个英语文本样本,并将它们转换为俄语语音和法语文本。

首先,加载处理器和模型的检查点

>>> from transformers import AutoProcessor, SeamlessM4Tv2Model

>>> processor = AutoProcessor.from_pretrained("facebook/seamless-m4t-v2-large")
>>> model = SeamlessM4Tv2Model.from_pretrained("facebook/seamless-m4t-v2-large")

您可以无缝地在文本或音频上使用此模型,以生成翻译后的文本或翻译后的音频。

以下是如何使用处理器处理文本和音频

>>> # let's load an audio sample from an Arabic speech corpus
>>> from datasets import load_dataset
>>> dataset = load_dataset("arabic_speech_corpus", split="test", streaming=True)
>>> audio_sample = next(iter(dataset))["audio"]

>>> # now, process it
>>> audio_inputs = processor(audios=audio_sample["array"], return_tensors="pt")

>>> # now, process some English text as well
>>> text_inputs = processor(text = "Hello, my dog is cute", src_lang="eng", return_tensors="pt")

语音

SeamlessM4Tv2Model 可以无缝地生成文本或语音,只需进行少量或无需更改。让我们以俄语语音翻译为目标

>>> audio_array_from_text = model.generate(**text_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()
>>> audio_array_from_audio = model.generate(**audio_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()

使用基本相同的代码,我已经将英语文本和阿拉伯语语音翻译成俄语语音样本。

文本

同样,您可以使用相同的模型从音频文件或文本生成翻译后的文本。您只需要将 generate_speech=False 传递给 SeamlessM4Tv2Model.generate()。这次,让我们翻译成法语。

>>> # from audio
>>> output_tokens = model.generate(**audio_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_audio = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)

>>> # from text
>>> output_tokens = model.generate(**text_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_text = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)

提示

1. 使用专用模型

SeamlessM4Tv2Model 是用于生成语音和文本的 transformers 顶级模型,但您也可以使用执行任务而无需额外组件的专用模型,从而减少内存占用。例如,您可以使用专用于 S2ST 任务的模型替换音频到音频生成代码片段,其余代码完全相同

>>> from transformers import SeamlessM4Tv2ForSpeechToSpeech
>>> model = SeamlessM4Tv2ForSpeechToSpeech.from_pretrained("facebook/seamless-m4t-v2-large")

或者,您可以使用专用于 T2TT 任务的模型替换文本到文本生成代码片段,您只需删除 generate_speech=False 即可。

>>> from transformers import SeamlessM4Tv2ForTextToText
>>> model = SeamlessM4Tv2ForTextToText.from_pretrained("facebook/seamless-m4t-v2-large")

请随时试用 SeamlessM4Tv2ForSpeechToTextSeamlessM4Tv2ForTextToSpeech

2. 更改说话人身份

您可以使用 speaker_id 参数更改用于语音合成的说话人。某些 speaker_id 对于某些语言效果更好!

3. 更改生成策略

您可以对文本生成使用不同的 生成策略,例如 .generate(input_ids=input_ids, text_num_beams=4, text_do_sample=True),这将在文本模型上执行多项式束搜索解码。请注意,语音生成仅支持贪婪算法(默认)或多项式采样,可以通过例如 .generate(..., speech_do_sample=True, speech_temperature=0.6) 来使用。

4. 同时生成语音和文本

return_intermediate_token_ids=TrueSeamlessM4Tv2Model 一起使用,以同时返回语音和文本!

模型架构

SeamlessM4T-v2 具有通用的架构,可以平稳地处理文本和语音的顺序生成。此设置包括两个序列到序列 (seq2seq) 模型。第一个模型将输入模态翻译成翻译后的文本,而第二个模型从翻译后的文本生成语音标记,称为“单元标记”。

每种模态都有其自己专用的编码器,具有独特的架构。此外,对于语音输出,在第二个 seq2seq 模型之上放置了一个受 HiFi-GAN 架构启发的声码器。

与 SeamlessM4T-v1 的区别

这个新版本的架构与第一个版本在几个方面有所不同

第二遍模型改进

第二个 seq2seq 模型,名为文本到单元模型,现在是非自回归的,这意味着它在单次前向传递中计算单元。这一成就归功于

  • 使用字符级嵌入,这意味着预测的翻译文本的每个字符都有其自己的嵌入,然后用于预测单元标记。
  • 使用中间持续时间预测器,该预测器在预测的翻译文本上字符级预测语音持续时间。
  • 使用新的文本到单元解码器,混合了卷积和自注意力以处理更长的上下文。

语音编码器差异

语音编码器,在第一遍生成过程中用于预测翻译后的文本,主要通过以下机制与之前的语音编码器不同

  • 使用分块注意力掩码来防止跨块的注意力,确保每个位置仅关注其自身块和固定数量的先前块内的位置。
  • 使用相对位置嵌入,它仅考虑序列元素之间的距离,而不是绝对位置。有关更多详细信息,请参阅 Self-Attentionwith Relative Position Representations (Shaw et al.)
  • 使用因果深度卷积代替非因果卷积。

生成过程

以下是生成过程的工作原理

  • 输入文本或语音通过其特定的编码器进行处理。
  • 解码器以所需的语言创建文本标记。
  • 如果需要语音生成,则第二个 seq2seq 模型以非自回归方式生成单元标记。
  • 然后,这些单元标记通过最终的声码器以产生实际的语音。

此模型由 ylacombe 贡献。原始代码可以在 此处 找到。

SeamlessM4Tv2Model

class transformers.SeamlessM4Tv2Model

< >

( config current_modality = 'text' )

参数

  • config (~SeamlessM4Tv2Config) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
  • current_modality (str, 可选, 默认为 "text") — 默认模态。仅用于初始化模型。可以设置为 "text""speech"。这将根据传递给前向和生成过程的模态自动更新(文本为 input_ids,音频为 input_features)。

原始的 SeamlessM4Tv2 Model transformer 可以用于所有可用的任务(S2ST、S2TT、T2TT、T2ST)。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解所有与通用用法和行为相关的事项。

generate

< >

( input_ids: Optional = None input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None speaker_id: Optional = 0 generate_speech: Optional = True **kwargs ) Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor], ModelOutput]

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 词汇表中输入序列标记的索引。

    可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • input_features (torch.FloatTensor,形状为 (batch_size, sequence_length, num_banks)可选) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。 有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • return_intermediate_token_ids (bool, optional) — 如果为 True,还会返回中间生成的文本和单元 tokens。如果您还想获取音频旁边的翻译文本,请设置为 True。请注意,如果 generate_speech=True,此参数将被忽略。
  • tgt_lang (str, optional) — 用作翻译目标语言的语言。
  • speaker_id (int, optional, defaults to 0) — 用于语音合成的说话人 ID。必须低于 config.vocoder_num_spkrs
  • generate_speech (bool, optional, defaults to True) — 如果为 False,则只会返回文本 tokens,而不会生成语音。
  • kwargs (optional) — 将传递给 GenerationMixin.generate() 的剩余关键字参数字典。关键字参数有两种类型:

    • 没有前缀的关键字参数将作为每个子模型的 generate 方法的 **kwargs 输入,但 decoder_input_ids 除外,decoder_input_ids 将仅通过文本组件传递。
    • 带有 text_speech_ 前缀的关键字参数将分别作为文本模型和语音模型的 generate 方法的输入。它优先于没有前缀的关键字。

    这意味着您可以例如为一个生成指定生成策略,而不为另一个生成指定生成策略。

返回

Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor], ModelOutput]

  • 如果 generate_speechreturn_intermediate_token_ids 都为 True,则返回 SeamlessM4Tv2GenerationOutput
  • 如果 generate_speech 为 True 且 return_intermediate_token_ids 为 False,则返回一个元组,其中包含形状为 (batch_size, sequence_length) 的波形和 waveform_lengths,后者给出每个样本的长度。
  • 如果 generate_speech=False,它将返回 ModelOutput

生成翻译后的 token ids 和/或翻译后的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同的级别指定关键字参数:将传递给两个模型的常规参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_ids=input_ids, num_beams=4, speech_do_sample=True) 将在文本模型上依次执行 beam-search 解码,并在语音模型上执行多项式 beam-search 采样。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForTextToSpeech

class transformers.SeamlessM4Tv2ForTextToSpeech

< >

( config: SeamlessM4Tv2Config )

参数

  • config (~SeamlessM4Tv2Config) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

用于文本到语音的 SeamlessM4Tv2 模型转换器,可用于 T2ST。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以获取与常规用法和行为相关的所有事项。

generate

< >

( input_ids: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None speaker_id: Optional = 0 **kwargs ) Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor]]

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    索引可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 IDs?

  • return_intermediate_token_ids (bool, optional) — 如果为 True,还会返回中间生成的文本和单元 tokens。如果您还想获取音频旁边的翻译文本,请设置为 True
  • tgt_lang (str, optional) — 用作翻译目标语言的语言。
  • speaker_id (int, optional, defaults to 0) — 用于语音合成的说话人 ID。必须低于 config.vocoder_num_spkrs
  • kwargs (optional) — 将传递给 GenerationMixin.generate() 的剩余关键字参数字典。关键字参数有两种类型:

    • 没有前缀的关键字参数将作为每个子模型的 generate 方法的 **kwargs 输入,但 decoder_input_ids 除外,decoder_input_ids 将仅通过文本组件传递。
    • 带有 text_speech_ 前缀的关键字参数将分别作为文本模型和语音模型的 generate 方法的输入。它优先于没有前缀的关键字。

    这意味着您可以例如为一个生成指定生成策略,而不为另一个生成指定生成策略。

返回

Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor]]

  • 如果 return_intermediate_token_ids 为 True,则返回 SeamlessM4Tv2GenerationOutput
  • 如果 return_intermediate_token_ids 为 False,则返回一个元组,其中包含形状为 (batch_size, sequence_length) 的波形和 waveform_lengths,后者给出每个样本的长度。

生成翻译后的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同的级别指定关键字参数:将传递给两个模型的常规参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_ids, num_beams=4, speech_do_sample=True) 将在文本模型上依次执行 beam-search 解码,并在语音模型上执行多项式 beam-search 采样。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForSpeechToSpeech

class transformers.SeamlessM4Tv2ForSpeechToSpeech

< >

( config )

参数

  • config (~SeamlessM4Tv2Config) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

用于语音到语音的 SeamlessM4Tv2 模型转换器,可用于 S2ST。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以获取与常规用法和行为相关的所有事项。

generate

< >

( input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None speaker_id: Optional = 0 **kwargs ) Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor]]

参数

  • input_features (torch.FloatTensor of shape (batch_size, sequence_length, num_banks)) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • return_intermediate_token_ids (bool, optional) — 如果为 True,还会返回中间生成的文本和单元 tokens。如果您还想获取音频旁边的翻译文本,请设置为 True
  • tgt_lang (str, optional) — 用作翻译目标语言的语言。
  • speaker_id (int, optional, defaults to 0) — 用于语音合成的说话人 ID。必须低于 config.vocoder_num_spkrs
  • kwargs (可选) — 将传递给 GenerationMixin.generate() 的剩余关键字参数字典 (dictionary of keyword arguments)。关键字参数 (Keyword arguments) 分为两种类型:

    • 不带前缀的关键字参数将作为 **kwargs 输入到每个子模型的 generate 方法中,但 decoder_input_ids 除外,它仅会传递给文本组件。
    • 带有 text_speech_ 前缀的关键字参数将分别作为文本模型和语音模型的 generate 方法的输入。它优先于不带前缀的关键字参数。

    这意味着您可以例如为一个生成指定生成策略,但不为另一个生成指定生成策略。

返回

Union[SeamlessM4Tv2GenerationOutput, Tuple[Tensor]]

  • 如果 return_intermediate_token_ids 为 True,则返回 SeamlessM4Tv2GenerationOutput
  • 如果 return_intermediate_token_ids 为 False,则返回一个元组,其中包含形状为 (batch_size, sequence_length) 的波形和 waveform_lengths,后者给出每个样本的长度。

生成翻译后的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同的级别指定关键字参数:将传递给两个模型的常规参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_features, num_beams=4, speech_do_sample=True) 将会依次在文本模型上执行束搜索解码 (beam-search decoding),并在语音模型上执行多项式束搜索采样 (multinomial beam-search sampling)。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForTextToText

class transformers.SeamlessM4Tv2ForTextToText

< >

( config: SeamlessM4Tv2Config )

参数

  • config (~SeamlessM4Tv2Config) — 带有模型所有参数的模型配置类 (Model configuration class)。使用配置文件 (config file) 初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

用于 T2TT 的文本到文本 SeamlessM4Tv2 模型转换器 (transformer)。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 词汇表中输入序列标记的索引。

    可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在填充标记索引上执行注意力的掩码 (Mask)。掩码值在 [0, 1] 中选择:

    • 1 表示未被掩盖的标记,
    • 0 表示被掩盖的标记。

    什么是注意力掩码?

  • decoder_input_ids (torch.LongTensor,形状为 (batch_size, target_sequence_length)可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Bart 使用 eos_token_id 作为 decoder_input_ids 生成的起始标记。如果使用 past_key_values,则可以选择仅输入最后一个 decoder_input_ids(请参阅 past_key_values)。

    对于翻译和摘要训练,应提供 decoder_input_ids。 如果未提供 decoder_input_ids,则模型将通过将 input_ids 向右移动来创建此张量,以进行遵循论文的去噪预训练 (denoising pre-training)。

  • decoder_attention_mask (torch.LongTensor,形状为 (batch_size, target_sequence_length)可选) — 默认行为:生成一个忽略 decoder_input_ids 中填充标记的张量。默认情况下,也将使用因果掩码 (causal mask)。

    如果您想更改填充行为,则应阅读 modeling_bart._prepare_decoder_attention_mask 并根据您的需要进行修改。 有关默认策略的更多信息,请参见 论文 中的图 1。

  • encoder_outputs (tuple(tuple(torch.FloatTensor)可选) — 元组 (Tuple) 由 (last_hidden_state可选hidden_states可选attentions) 组成,last_hidden_state 的形状为 (batch_size, sequence_length, hidden_size)可选) 是编码器最后一层输出的隐藏状态序列 (sequence of hidden-states)。 在解码器的交叉注意力 (cross-attention) 中使用。
  • past_key_values (tuple(tuple(torch.FloatTensor))可选,当传递 use_cache=True 或当 config.use_cache=True 时返回) — 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 元组,其中每个元组都有 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量和 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的附加张量。

    包含预先计算的隐藏状态 (hidden-states)(自注意力模块和交叉注意力模块中的键和值),这些状态可用于加速顺序解码 (sequential decoding)(请参阅 past_key_values 输入)。

    如果使用 past_key_values,则用户可以选择仅输入最后一个 decoder_input_ids(那些未将其过去的键值状态提供给此模型的 decoder_input_ids),其形状为 (batch_size, 1),而不是所有形状为 (batch_size, sequence_length)decoder_input_ids

  • inputs_embeds (torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示 (embedded representation),而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵 (internal embedding lookup matrix) 更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • decoder_inputs_embeds (torch.FloatTensor,形状为 (batch_size, target_sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 decoder_input_ids。 如果使用 past_key_values,则可以选择仅输入最后一个 decoder_inputs_embeds(请参阅 past_key_values)。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 decoder_input_ids 索引转换为关联的向量,这将非常有用。

    如果 decoder_input_idsdecoder_inputs_embeds 均未设置,则 decoder_inputs_embeds 将采用 inputs_embeds 的值。

  • labels (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 用于计算掩码语言建模损失 (masked language modeling loss) 的标签。索引应在 [-100, 0, ..., config.vocab_size] 中(请参阅 input_ids 文档字符串)。索引设置为 -100 的标记将被忽略(掩码),损失仅针对标签在 [0, ..., config.vocab_size] 中的标记计算
  • use_cache (bool可选) — 如果设置为 True,则返回 past_key_values 键值状态 (key value states),并可用于加速解码(请参阅 past_key_values)。
  • output_attentions (bool可选) — 是否返回所有注意力层 (attention layers) 的注意力张量 (attention tensors)。 有关更多详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态 (hidden states)。 有关更多详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组 (plain tuple)。

SeamlessM4Tv2ForTextToText forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但之后应调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会静默忽略它们。

generate

< >

( input_ids = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) ModelOutputtorch.LongTensor

参数

  • input_ids (torch.Tensor,形状根据模态而变化,可选) — 词汇表中输入序列标记的索引。

    可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • tgt_lang (str可选) — 用作翻译目标语言的语言。
  • generation_config (~generation.GenerationConfig, 可选) — 用作生成调用的基本参数化的生成配置。传递给 generate 的与 generation_config 属性匹配的 **kwargs 将覆盖它们。如果未提供 generation_config,则将使用默认值,默认值具有以下加载优先级:1) 来自 generation_config.json 模型文件(如果存在);2) 来自模型配置。 请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。
  • logits_processor (LogitsProcessorList, 可选) — 自定义 logits 处理器,用于补充从参数和生成配置构建的默认 logits 处理器。 如果传递的 logits 处理器已使用参数或生成配置创建,则会抛出错误。 此功能专为高级用户设计。
  • stopping_criteria (StoppingCriteriaList, 可选) — 自定义停止标准,用于补充从参数和生成配置构建的默认停止标准。 如果传递的停止标准已使用参数或生成配置创建,则会抛出错误。 此功能专为高级用户设计。
  • prefix_allowed_tokens_fn (Callable[[int, torch.Tensor], List[int]], 可选) — 如果提供,此函数将束搜索约束为每步仅允许的令牌。 如果未提供,则不应用任何约束。 此函数接受 2 个参数:批次 ID batch_idinput_ids。 它必须返回一个列表,其中包含基于批次 ID batch_id 和先前生成的令牌 inputs_ids 的下一个生成步骤的允许令牌。 此参数对于基于前缀的约束生成非常有用,如 自回归实体检索 中所述。
  • synced_gpus (bool, 可选, 默认为 False) — 是否继续运行 while 循环直到 max_length(ZeRO stage 3 需要)
  • kwargs (Dict[str, Any], 可选) — generate_config 的特别参数化和/或将转发到模型的 forward 函数的其他特定于模型的 kwargs。

返回

ModelOutputtorch.LongTensor

一个 ModelOutput(如果 return_dict_in_generate=True 或当 config.return_dict_in_generate=True 时)或一个 torch.FloatTensor。 可能的 ModelOutput 类型是

生成令牌 ID 序列。

大多数生成控制参数在 generation_config 中设置,如果未传递,则将设置为模型的默认生成配置。 您可以通过将相应的参数传递给 generate() 来覆盖任何 generation_config,例如 .generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForSpeechToText

class transformers.SeamlessM4Tv2ForSpeechToText

< >

( config: SeamlessM4Tv2Config )

参数

  • config (~SeamlessM4Tv2Config) — 具有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法加载模型权重。

用于 S2TT 的语音到文本 SeamlessM4Tv2 模型转换器。 此模型是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_features: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )

参数

  • input_features (形状为 (batch_size, sequence_length, num_banks)torch.FloatTensor) — 输入音频特征。 这应由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。 有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • attention_mask (形状为 (batch_size, sequence_length)torch.FloatTensor, 可选) — 掩码,用于避免对填充令牌索引执行注意力机制。 在 [0, 1] 中选择的掩码值:

    • 1 表示未被掩盖的令牌,
    • 0 表示被掩盖的令牌。

    什么是注意力掩码?

  • decoder_input_ids (形状为 (batch_size, target_sequence_length)torch.LongTensor, 可选) — 解码器输入序列令牌在词汇表中的索引。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Bart 使用 eos_token_id 作为 decoder_input_ids 生成的起始令牌。 如果使用 past_key_values,则可以选择仅输入最后一个 decoder_input_ids(请参阅 past_key_values)。

    对于翻译和摘要训练,应提供 decoder_input_ids。 如果未提供 decoder_input_ids,则模型将通过将 input_ids 向右移动以进行去噪预训练来创建此张量,遵循论文中的方法。

  • decoder_attention_mask (形状为 (batch_size, target_sequence_length)torch.LongTensor, 可选) — 默认行为:生成一个张量,该张量忽略 decoder_input_ids 中的填充令牌。 默认情况下也将使用因果掩码。

    如果要更改填充行为,则应阅读 modeling_bart._prepare_decoder_attention_mask 并根据您的需求进行修改。 有关默认策略的更多信息,请参见 论文 中的图 1。

  • encoder_outputs (tuple(tuple(torch.FloatTensor), 可选) — 元组由 (last_hidden_state, 可选: hidden_states, 可选: attentions) 组成,last_hidden_state 的形状为 (batch_size, sequence_length, hidden_size), 可选) 是编码器最后一层输出端的隐藏状态序列。 在解码器的交叉注意力机制中使用。
  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 元组,每个元组具有 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量和 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的附加张量。

    包含预先计算的隐藏状态(自注意力模块和交叉注意力模块中的键和值),可以用于(请参阅 past_key_values 输入)加速顺序解码。

    如果使用 past_key_values,则用户可以选择仅输入最后一个 decoder_input_ids(那些没有将其过去的键值状态提供给此模型的)形状为 (batch_size, 1) 而不是所有形状为 (batch_size, sequence_length)decoder_input_ids

  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • decoder_inputs_embeds (形状为 (batch_size, target_sequence_length, hidden_size)torch.FloatTensor, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 decoder_input_ids。 如果使用 past_key_values,则可以选择仅输入最后一个 decoder_inputs_embeds(请参阅 past_key_values)。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 decoder_input_ids 索引转换为关联的向量,这将非常有用。

    如果 decoder_input_idsdecoder_inputs_embeds 均未设置,则 decoder_inputs_embeds 采用 inputs_embeds 的值。

  • labels (形状为 (batch_size, sequence_length)torch.LongTensor, 可选) — 用于计算掩码语言建模损失的标签。 索引应在 [-100, 0, ..., config.vocab_size] 中(请参阅 input_ids 文档字符串) 索引设置为 -100 的令牌将被忽略(掩码),损失仅针对标签在 [0, ..., config.vocab_size] 中的令牌计算
  • use_cache (bool, 可选) — 如果设置为 True,则返回 past_key_values 键值状态,并且可以用于加速解码(参见 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是纯元组。

The SeamlessM4Tv2ForSpeechToText forward method, overrides the __call__ special method.

尽管 forward 传递的配方需要在该函数中定义,但之后应调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会静默忽略它们。

generate

< >

( input_features = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) ModelOutputtorch.LongTensor

参数

  • input_features (形状为 (batch_size, sequence_length, num_banks)torch.FloatTensor) — 输入音频特征。 这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。 有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • generation_config (~generation.GenerationConfig, 可选) — 用作生成调用的基本参数化的生成配置。 传递给 generate 的 **kwargs,如果与 generation_config 的属性匹配,将覆盖它们。 如果未提供 generation_config,将使用默认值,其加载优先级如下:1) 来自 generation_config.json 模型文件(如果存在);2) 来自模型配置。 请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。
  • logits_processor (LogitsProcessorList, 可选) — 自定义 logits 处理器,用于补充从参数和生成配置构建的默认 logits 处理器。 如果传递的 logit 处理器已使用参数或生成配置创建,则会抛出错误。 此功能适用于高级用户。
  • stopping_criteria (StoppingCriteriaList, 可选) — 自定义停止标准,用于补充从参数和生成配置构建的默认停止标准。 如果传递的停止标准已使用参数或生成配置创建,则会抛出错误。 此功能适用于高级用户。
  • prefix_allowed_tokens_fn (Callable[[int, torch.Tensor], List[int]], 可选) — 如果提供,此函数将 beam search 限制为每一步仅允许的 tokens。 如果未提供,则不应用约束。 此函数接受 2 个参数:批次 ID batch_idinput_ids。 它必须返回一个列表,其中包含在批次 ID batch_id 和先前生成的 tokens inputs_ids 的条件下,下一步生成步骤允许的 tokens。 此参数对于在 prefix 条件下进行约束生成非常有用,如 Autoregressive Entity Retrieval 中所述。
  • synced_gpus (bool, 可选, 默认为 False) — 是否继续运行 while 循环直到 max_length(ZeRO stage 3 需要)
  • kwargs (Dict[str, Any], 可选) — generate_config 的临时参数化和/或将转发到模型的 forward 函数的其他模型特定 kwargs。

返回

ModelOutputtorch.LongTensor

一个 ModelOutput(如果 return_dict_in_generate=True 或当 config.return_dict_in_generate=True 时)或一个 torch.FloatTensor。 可能的 ModelOutput 类型是

生成令牌 ID 序列。

大多数生成控制参数在 generation_config 中设置,如果未传递,则将设置为模型的默认生成配置。 您可以通过将相应的参数传递给 generate() 来覆盖任何 generation_config,例如 .generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2Config

transformers.SeamlessM4Tv2Config

< >

( vocab_size = 256102 t2u_vocab_size = 10082 char_vocab_size = 10943 hidden_size = 1024 initializer_range = 0.02 layer_norm_eps = 1e-05 use_cache = True max_position_embeddings = 4096 is_encoder_decoder = True encoder_layerdrop = 0.05 decoder_layerdrop = 0.05 activation_function = 'relu' dropout = 0.1 attention_dropout = 0.1 activation_dropout = 0.0 scale_embedding = True encoder_layers = 24 encoder_ffn_dim = 8192 encoder_attention_heads = 16 decoder_layers = 24 decoder_ffn_dim = 8192 decoder_attention_heads = 16 decoder_start_token_id = 3 max_new_tokens = 256 pad_token_id = 0 bos_token_id = 2 eos_token_id = 3 speech_encoder_layers = 24 speech_encoder_attention_heads = 16 speech_encoder_intermediate_size = 4096 speech_encoder_hidden_act = 'swish' speech_encoder_dropout = 0.0 add_adapter = True speech_encoder_layerdrop = 0.1 feature_projection_input_dim = 160 adaptor_kernel_size = 8 adaptor_stride = 8 adaptor_dropout = 0.1 num_adapter_layers = 1 position_embeddings_type = 'relative_key' conv_depthwise_kernel_size = 31 left_max_position_embeddings = 64 right_max_position_embeddings = 8 speech_encoder_chunk_size = 20000 speech_encoder_left_chunk_num = 128 t2u_bos_token_id = 0 t2u_pad_token_id = 1 t2u_eos_token_id = 2 t2u_encoder_layers = 6 t2u_encoder_ffn_dim = 8192 t2u_encoder_attention_heads = 16 t2u_decoder_layers = 6 t2u_decoder_ffn_dim = 8192 t2u_decoder_attention_heads = 16 t2u_max_position_embeddings = 4096 t2u_variance_predictor_embed_dim = 1024 t2u_variance_predictor_hidden_dim = 256 t2u_variance_predictor_kernel_size = 3 t2u_variance_pred_dropout = 0.5 sampling_rate = 16000 upsample_initial_channel = 512 upsample_rates = [5, 4, 4, 2, 2] upsample_kernel_sizes = [11, 8, 8, 4, 4] resblock_kernel_sizes = [3, 7, 11] resblock_dilation_sizes = [[1, 3, 5], [1, 3, 5], [1, 3, 5]] leaky_relu_slope = 0.1 unit_hifi_gan_vocab_size = 10000 unit_embed_dim = 1280 lang_embed_dim = 256 spkr_embed_dim = 256 vocoder_num_langs = 36 vocoder_num_spkrs = 200 variance_predictor_kernel_size = 3 var_pred_dropout = 0.5 vocoder_offset = 4 **kwargs )

参数

跨子模型共享的参数

  • hidden_size (int, 可选,默认为 1024) — 架构中“中间”层的维度。
  • initializer_range (float, 可选,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • layer_norm_eps (float, 可选,默认为 1e-05) — layer normalization 层使用的 epsilon 值。
  • use_cache (bool, 可选,默认为 True) — 模型是否应返回最后的键/值注意力机制(并非所有模型都使用)。
  • max_position_embeddings (int, 可选,默认为 4096) — 此模型文本编码器和解码器可能使用的最大序列长度。 通常将其设置为较大的值以防万一(例如,512 或 1024 或 2048)。
  • is_encoder_decoder (bool, 可选,默认为 True) — 模型是否用作编码器/解码器。
  • encoder_layerdrop (float, 可选,默认为 0.05) — 编码器的 LayerDrop 概率。 有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。
  • decoder_layerdrop (float, 可选,默认为 0.05) — 解码器的 LayerDrop 概率。 有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。
  • activation_function (strfunction, 可选,默认为 "relu") — 解码器和前馈层中的非线性激活函数(函数或字符串)。 如果是字符串,则支持 "gelu""relu""selu""swish""gelu_new"
  • dropout (float, 可选,默认为 0.1) — 嵌入层、编码器、解码器和池化层中所有全连接层的 dropout 概率。
  • attention_dropout (float, 可选,默认为 0.1) — 所有注意力层的 dropout 概率。
  • activation_dropout (float, 可选,默认为 0.0) — 模型中所有激活层的 dropout 概率。
  • scale_embedding (bool, 可选,默认为 True) — 是否通过除以 sqrt(d_model) 来缩放嵌入。

文本编码器和文本解码器特定参数

  • encoder_layers (int, 可选,默认为 24) — Transformer 文本编码器中隐藏层的数量。
  • encoder_ffn_dim (int, 可选,默认为 8192) — Transformer 文本编码器中“中间”(即,前馈)层的维度。
  • encoder_attention_heads (int, 可选,默认为 16) — Transformer 文本编码器中每个注意力层的注意力头数。
  • decoder_layers (int, 可选,默认为 24) — Transformer 文本解码器中隐藏层的数量。
  • decoder_ffn_dim (int, 可选,默认为 8192) — Transformer 文本解码器中“中间”(即,前馈)层的维度。
  • decoder_attention_heads (int, 可选,默认为 16) — Transformer 文本解码器中每个注意力层的注意力头数。
  • decoder_start_token_id (int, 可选,默认为 3) — 如果编码器-解码器模型以不同于 bos 的 token 开始解码,则为该 token 的 id。 仅应用于文本解码器。
  • max_new_tokens (int, 可选,默认为 256) — 要生成的最大文本 token 数,忽略提示中的 token 数。
  • pad_token_id (int, 可选,默认为 0) — padding 文本 token 的 id。 仅应用于文本解码器模型。
  • bos_token_id (int, 可选,默认为 2) — beginning-of-stream 文本 token 的 id。 仅应用于文本解码器模型。
  • eos_token_id (int, 可选,默认为 3) — end-of-stream 文本 token 的 id。 仅应用于文本解码器模型。

语音编码器特定参数

  • speech_encoder_layers (int, optional, defaults to 24) — Transformer 语音编码器中的隐藏层数。
  • speech_encoder_attention_heads (int, optional, defaults to 16) — Transformer 语音编码器中每个注意力层的注意力头数。
  • speech_encoder_intermediate_size (int, optional, defaults to 4096) — Transformer 语音编码器中“中间”(即,前馈)层的维度。
  • speech_encoder_hidden_act (str or function, optional, defaults to "swish") — 语音编码器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "gelu""relu""selu""swish""gelu_new"
  • speech_encoder_dropout (float, optional, defaults to 0.0) — 语音编码器中所有层的 dropout 概率。
  • add_adapter (bool, optional, defaults to True) — 在语音编码器之上添加一个适配器层。
  • speech_encoder_layerdrop (float, optional, defaults to 0.1) — 语音编码器的 LayerDrop 概率。有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。
  • feature_projection_input_dim (int, optional, defaults to 160) — 语音编码器的输入特征投影的输入维度,即使用 SeamlessM4TFeatureExtractor 处理输入音频后的维度。
  • adaptor_kernel_size (int, optional, defaults to 8) — 适配器网络中卷积层的内核大小。仅当 add_adapter is True 时相关。
  • adaptor_stride (int, optional, defaults to 8) — 适配器网络中卷积层的步幅。仅当 add_adapter is True 时相关。
  • adaptor_dropout (float, optional, defaults to 0.1) — 语音适配器中所有层的 dropout 概率。
  • num_adapter_layers (int, optional, defaults to 1) — 适配器网络中应使用的卷积层数。仅当 add_adapter is True 时相关。
  • position_embeddings_type (str, optional, defaults to "relative_key") — 可以指定为 relative_key。如果留为 None,则不应用相对位置嵌入。仅应用于语音编码器。有关 "relative_key" 的更多信息,请参考 Self-Attention with Relative Position Representations (Shaw et al.)
  • conv_depthwise_kernel_size (int, optional, defaults to 31) — Conformer 块中卷积深度可分离 1D 层的内核大小。仅应用于语音编码器。
  • left_max_position_embeddings (int, optional, defaults to 64) — 相对位置的左裁剪值。
  • right_max_position_embeddings (int, optional, defaults to 8) — 相对位置的右裁剪值。
  • speech_encoder_chunk_size (int, optional, defaults to 20000) — 每个注意力块的大小。
  • speech_encoder_left_chunk_num (int, optional, defaults to 128) — 左侧允许前瞻的块数上限。

Text-To-Unit (t2u) 模型特定参数

  • t2u_bos_token_id (int, optional, defaults to 0) — 流开始单元 token 的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_pad_token_id (int, optional, defaults to 1) — 填充单元 token 的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_eos_token_id (int, optional, defaults to 2) — 流结束单元 token 的 id。仅应用于文本到单元 seq2seq 模型。
  • t2u_encoder_layers (int, optional, defaults to 6) — Transformer 文本到单元编码器中的隐藏层数。
  • t2u_encoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元编码器中“中间”(即,前馈)层的维度。
  • t2u_encoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元编码器中每个注意力层的注意力头数。
  • t2u_decoder_layers (int, optional, defaults to 6) — Transformer 文本到单元解码器中的隐藏层数。
  • t2u_decoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元解码器中“中间”(即,前馈)层的维度。
  • t2u_decoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元解码器中每个注意力层的注意力头数。
  • t2u_max_position_embeddings (int, optional, defaults to 4096) — 此模型文本到单元组件可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512 或 1024 或 2048)。
  • t2u_variance_predictor_embed_dim (int, optional, defaults to 1024) — 文本到单元的持续时间预测器的投影维度。
  • t2u_variance_predictor_hidden_dim (int, optional, defaults to 256) — 文本到单元的持续时间预测器的内部维度。
  • t2u_variance_predictor_kernel_size (int, optional, defaults to 3) — 文本到单元的持续时间预测器的卷积层的内核大小。
  • t2u_variance_pred_dropout (float, optional, defaults to 0.5) — 文本到单元的持续时间预测器的 dropout 概率。

    Hifi-Gan 声码器特定参数

  • sampling_rate (int, optional, defaults to 16000) — 输出音频将被生成的采样率,以赫兹 (Hz) 表示。
  • upsample_initial_channel (int, optional, defaults to 512) — hifi-gan 上采样网络的输入通道数。仅适用于声码器。
  • upsample_rates (Tuple[int]List[int], optional, defaults to [5, 4, 4, 2, 2]) — 定义声码器上采样网络中每个 1D 卷积层步长的整数元组。upsample_rates 的长度定义了卷积层的数量,并且必须与 upsample_kernel_sizes 的长度匹配。仅适用于声码器。
  • upsample_kernel_sizes (Tuple[int]List[int], optional, defaults to [11, 8, 8, 4, 4]) — 定义声码器上采样网络中每个 1D 卷积层核大小的整数元组。upsample_kernel_sizes 的长度定义了卷积层的数量,并且必须与 upsample_rates 的长度匹配。仅适用于声码器。
  • resblock_kernel_sizes (Tuple[int]List[int], optional, defaults to [3, 7, 11]) — 定义多感受野融合 (MRF) 模块中声码器 1D 卷积层核大小的整数元组。仅适用于声码器。
  • resblock_dilation_sizes (Tuple[Tuple[int]]List[List[int]], optional, defaults to [[1, 3, 5], [1, 3, 5], [1, 3, 5]]) — 定义多感受野融合 (MRF) 模块中声码器空洞 1D 卷积层空洞率的嵌套整数元组。仅适用于声码器。
  • leaky_relu_slope (float, optional, defaults to 0.1) — 声码器中 leaky ReLU 激活函数使用的负斜率的角度。仅适用于声码器。
  • unit_hifi_gan_vocab_size (int, optional, defaults to 10000) — SeamlessM4Tv2 声码器的词汇表大小。定义了在调用 ~SeamlessM4Tv2Model~SeamlessM4Tv2ForSpeechToSpeech~SeamlessM4Tv2ForTextToSpeech 的声码器时,可以通过 inputs_ids 传递的不同单元 tokens 的数量。
  • unit_embed_dim (int, optional, defaults to 1280) — 给定给 hifi-gan 声码器的输入 ids 的投影维度。仅适用于声码器。
  • lang_embed_dim (int, optional, defaults to 256) — 给定给 hifi-gan 声码器的目标语言的投影维度。仅适用于声码器。
  • spkr_embed_dim (int, optional, defaults to 256) — 给定给 hifi-gan 声码器的说话人 id 的投影维度。仅适用于声码器。
  • vocoder_num_langs (int, optional, defaults to 36) — 声码器支持的语言数量。可能与 t2u_num_langs 不同。
  • vocoder_num_spkrs (int, optional, defaults to 200) — 声码器支持的说话人数量。
  • variance_predictor_kernel_size (int, optional, defaults to 3) — 时长预测器的核大小。仅适用于声码器。
  • var_pred_dropout (float, optional, defaults to 0.5) — 时长预测器的 dropout 概率。仅适用于声码器。
  • vocoder_offset (int, optional, defaults to 4) — 将单元 token ids 偏移此数字以考虑符号 tokens。仅适用于声码器。

这是用于存储 ~SeamlessM4Tv2Model 配置的配置类。它用于根据指定的参数实例化 SeamlessM4Tv2 模型,定义模型架构。使用默认值实例化配置将产生与 SeamlessM4Tv2 "" 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 中的文档。

>>> from transformers import SeamlessM4Tv2Model, SeamlessM4Tv2Config

>>> # Initializing a SeamlessM4Tv2 "" style configuration
>>> configuration = SeamlessM4Tv2Config()

>>> # Initializing a model from the "" style configuration
>>> model = SeamlessM4Tv2Model(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config
< > 在 GitHub 上更新