Transformers 文档

SeamlessM4T-v2

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

SeamlessM4T-v2

PyTorch

概述

SeamlessM4T-v2 模型由 Meta AI 的 Seamless Communication 团队在 Seamless: Multilingual Expressive and Streaming Speech Translation 中提出。

SeamlessM4T-v2 是一系列旨在提供高质量翻译的模型集合,让不同语言社区的人们能够通过语音和文本轻松交流。它是先前版本的改进。有关 v1 和 v2 之间差异的更多详细信息,请参阅SeamlessM4T-v1 的差异部分。

SeamlessM4T-v2 可以在不依赖独立模型的情况下实现多项任务:

  • 语音到语音翻译 (S2ST)
  • 语音到文本翻译 (S2TT)
  • 文本到语音翻译 (T2ST)
  • 文本到文本翻译 (T2TT)
  • 自动语音识别 (ASR)

SeamlessM4Tv2Model 可以执行上述所有任务,但每个任务也有其专用的子模型。

论文摘要如下:

自动语音翻译的最新进展极大地扩展了语言覆盖范围,改进了多模态能力,并实现了广泛的任务和功能。尽管如此,当今大规模的自动语音翻译系统缺乏关键功能,这些功能有助于机器辅助通信在与人与人对话相比时感觉无缝。在这项工作中,我们引入了一系列模型,可以以流式方式实现端到端表达性和多语言翻译。首先,我们贡献了大规模多语言多模态 SeamlessM4T 模型 SeamlessM4T v2 的改进版本。这个更新的模型结合了更新的 UnitY2 框架,在更多低资源语言数据上进行了训练。SeamlessAlign 的扩展版本增加了 114,800 小时的自动对齐数据,总共涵盖 76 种语言。SeamlessM4T v2 为我们最新的两个模型 SeamlessExpressive 和 SeamlessStreaming 的启动奠定了基础。SeamlessExpressive 能够保留发声风格和韵律的翻译。与先前在表达性语音研究方面的努力相比,我们的工作解决了韵律的某些未充分探索的方面,例如语速和停顿,同时还保留了语音的风格。至于 SeamlessStreaming,我们的模型利用高效单调多头注意力(EMMA)机制生成低延迟目标翻译,而无需等待完整的源语句。作为首个此类模型,SeamlessStreaming 支持多种源语言和目标语言的同步语音到语音/文本翻译。为了了解这些模型的性能,我们结合了现有自动度量的新颖和修改版本来评估韵律、延迟和鲁棒性。对于人工评估,我们调整了现有协议,以衡量在意义、自然度和表达性保留方面最相关的属性。为了确保我们的模型可以安全负责地使用,我们实施了多模态机器翻译的首次已知红队演练工作、毒性检测和缓解系统、性别偏见的系统评估以及旨在削弱深度伪造影响的不可听局部水印机制。因此,我们将 SeamlessExpressive 和 SeamlessStreaming 的主要组件结合起来,形成 Seamless,这是第一个公开可用的系统,可实现实时表达性跨语言通信。总而言之,Seamless 让我们对将通用语音翻译器从科幻概念变为现实世界技术所需的技术基础有了关键的了解。最后,这项工作中的贡献——包括模型、代码和水印检测器——已公开发布,可通过以下链接访问。

用法

在下面的示例中,我们将加载阿拉伯语音频样本和英语文本样本,并将它们转换为俄语语音和法语文本。

首先,加载处理器和模型检查点

>>> from transformers import AutoProcessor, SeamlessM4Tv2Model

>>> processor = AutoProcessor.from_pretrained("facebook/seamless-m4t-v2-large")
>>> model = SeamlessM4Tv2Model.from_pretrained("facebook/seamless-m4t-v2-large")

您可以无缝地将此模型用于文本或音频,以生成翻译文本或翻译音频。

以下是如何使用处理器处理文本和音频

>>> # let's load an audio sample from an Arabic speech corpus
>>> from datasets import load_dataset
>>> dataset = load_dataset("halabi2016/arabic_speech_corpus", split="test", streaming=True)
>>> audio_sample = next(iter(dataset))["audio"]

>>> # now, process it
>>> audio_inputs = processor(audios=audio_sample["array"], return_tensors="pt")

>>> # now, process some English text as well
>>> text_inputs = processor(text = "Hello, my dog is cute", src_lang="eng", return_tensors="pt")

语音

SeamlessM4Tv2Model 可以无缝地生成文本或语音,几乎无需任何更改。让我们尝试俄语语音翻译

>>> audio_array_from_text = model.generate(**text_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()
>>> audio_array_from_audio = model.generate(**audio_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()

使用基本相同的代码,我已经将英语文本和阿拉伯语语音翻译成俄语语音样本。

文本

同样,您可以使用相同的模型从音频文件或文本生成翻译文本。您只需将 generate_speech=False 传递给 SeamlessM4Tv2Model.generate()。这次,让我们翻译成法语。

>>> # from audio
>>> output_tokens = model.generate(**audio_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_audio = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)

>>> # from text
>>> output_tokens = model.generate(**text_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_text = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)

提示

1. 使用专用模型

SeamlessM4Tv2Model 是 Transformers 顶层模型,用于生成语音和文本,但您也可以使用专用模型来执行任务,而无需额外的组件,从而减少内存占用。例如,您可以将音频到音频生成片段替换为专用于 S2ST 任务的模型,其余代码完全相同。

>>> from transformers import SeamlessM4Tv2ForSpeechToSpeech
>>> model = SeamlessM4Tv2ForSpeechToSpeech.from_pretrained("facebook/seamless-m4t-v2-large")

或者,您可以使用专用于 T2TT 任务的模型替换文本到文本生成片段,只需删除 generate_speech=False 即可。

>>> from transformers import SeamlessM4Tv2ForTextToText
>>> model = SeamlessM4Tv2ForTextToText.from_pretrained("facebook/seamless-m4t-v2-large")

欢迎尝试 SeamlessM4Tv2ForSpeechToTextSeamlessM4Tv2ForTextToSpeech

2. 改变说话人身份

您可以使用 speaker_id 参数更改用于语音合成的说话人。某些 speaker_id 在某些语言下比其他效果更好!

3. 更改生成策略

您可以对文本生成使用不同的生成策略,例如 .generate(input_ids=input_ids, text_num_beams=4, text_do_sample=True) 将在文本模型上执行多项式束搜索解码。请注意,语音生成仅支持贪婪(默认)或多项式采样,这可以与例如 .generate(..., speech_do_sample=True, speech_temperature=0.6) 一起使用。

4. 同时生成语音和文本

使用 SeamlessM4Tv2Modelreturn_intermediate_token_ids=True 可以同时返回语音和文本!

模型架构

SeamlessM4T-v2 具有多功能架构,可流畅处理文本和语音的顺序生成。此设置包含两个序列到序列 (seq2seq) 模型。第一个模型将输入模态翻译成翻译文本,而第二个模型则从翻译文本生成语音 token,即“单元 token”。

每种模态都有其自己的专用编码器,具有独特的架构。此外,对于语音输出,在第二个 seq2seq 模型之上放置了一个受 HiFi-GAN 架构启发的声码器。

与 SeamlessM4T-v1 的差异

这个新版本的架构与第一个版本在几个方面有所不同

第二遍模型的改进

第二个 seq2seq 模型,名为文本到单元模型,现在是非自回归的,这意味着它在**单个前向传播**中计算单元。这一成就得以实现,得益于

  • **字符级嵌入**的使用,这意味着预测的翻译文本的每个字符都有其自己的嵌入,然后用于预测单元 token。
  • 使用中间持续时间预测器,该预测器在预测的翻译文本上以**字符级**预测语音持续时间。
  • 使用新的文本到单元解码器,该解码器混合了卷积和自注意力以处理更长的上下文。

语音编码器的差异

语音编码器,在第一遍生成过程中用于预测翻译文本,主要通过以下机制与以前的语音编码器不同:

  • 使用分块注意力掩码以防止跨块的注意力,确保每个位置仅关注其自身块和固定数量的先前块中的位置。
  • 使用相对位置嵌入,该嵌入仅考虑序列元素之间的距离,而不是绝对位置。有关更多详细信息,请参阅具有相对位置表示的自注意力 (Shaw et al.)
  • 使用因果深度可分离卷积而不是非因果深度可分离卷积。

生成过程

以下是生成过程的工作方式:

  • 输入文本或语音通过其特定的编码器进行处理。
  • 解码器以所需语言创建文本 token。
  • 如果需要语音生成,第二个 seq2seq 模型会以非自回归方式生成单元 token。
  • 然后这些单元 token 通过最终的声码器生成实际的语音。

此模型由 ylacombe 贡献。原始代码可在 此处 找到。

SeamlessM4Tv2Model

class transformers.SeamlessM4Tv2Model

< >

( config current_modality = 'text' )

参数

  • config (SeamlessM4Tv2Model) — 包含模型所有参数的模型配置类。使用配置文件初始化不加载与模型关联的权重,只加载配置。请查看 from_pretrained() 方法加载模型权重。
  • current_modality (str, 可选, 默认为 "text") — 默认模态。用于初始化模型。

原始的 SeamlessM4Tv2 模型 Transformer,可用于所有可用任务(S2ST、S2TT、T2TT、T2ST)。

此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档中与通用用法和行为相关的所有事项。

生成

< >

( input_ids: typing.Optional[torch.Tensor] = None input_features: typing.Optional[torch.Tensor] = None return_intermediate_token_ids: typing.Optional[bool] = None tgt_lang: typing.Optional[str] = None speaker_id: typing.Optional[int] = 0 generate_speech: typing.Optional[bool] = True **kwargs ) Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor], ModelOutput]

参数

  • input_ids (torch.LongTensor 形状 (batch_size, sequence_length), 可选) — 词汇表中输入序列 token 的索引。

    索引可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • input_features (torch.FloatTensor 形状 (batch_size, sequence_length, num_banks), 可选) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • return_intermediate_token_ids (bool, 可选) — 如果为 True,还会返回中间生成的文本和单元 token。如果您还想获取翻译音频以及文本,请设置为 True。请注意,如果 generate_speech=True,此参数将被忽略。
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • speaker_id (int, 可选, 默认为 0) — 用于语音合成的说话人 ID。必须小于 config.vocoder_num_spkrs
  • generate_speech (bool, 可选, 默认为 True) — 如果为 False,将仅返回文本 token 且不生成语音。
  • kwargs (可选) — 剩余的关键字参数字典,将传递给 GenerationMixin.generate()。关键字参数分为两种类型:

    • 不带前缀,它们将作为 **kwargs 输入给每个子模型的 generate 方法,除了 decoder_input_ids,它只会通过文本组件传递。
    • text_speech_ 前缀,它们将分别作为文本模型和语音模型的 generate 方法的输入。它优先于不带前缀的关键字。

    这意味着您可以,例如,为其中一个生成指定生成策略,而不为另一个指定。

返回

Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor], ModelOutput]

  • 如果为 generate_speechreturn_intermediate_token_ids,则返回 SeamlessM4Tv2GenerationOutput
  • 如果为 generate_speech 而非 return_intermediate_token_ids,则返回一个由形状为 (batch_size, sequence_length) 的波形和给出每个样本长度的 waveform_lengths 组成的元组。
  • 如果 generate_speech=False,它将返回 ModelOutput

生成翻译后的 token ID 和/或翻译后的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_ids=input_ids, num_beams=4, speech_do_sample=True) 将依次在文本模型上执行束搜索解码,并在语音模型上执行多项式束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForTextToSpeech

class transformers.SeamlessM4Tv2ForTextToSpeech

< >

( config: SeamlessM4Tv2Config )

参数

  • config (SeamlessM4Tv2Config) — 包含模型所有参数的模型配置类。使用配置文件初始化不加载与模型关联的权重,只加载配置。请查看 from_pretrained() 方法加载模型权重。

可用于 T2ST 的文本到语音 SeamlessM4Tv2 模型 Transformer。

此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档中与通用用法和行为相关的所有事项。

生成

< >

( input_ids: typing.Optional[torch.Tensor] = None return_intermediate_token_ids: typing.Optional[bool] = None tgt_lang: typing.Optional[str] = None speaker_id: typing.Optional[int] = 0 **kwargs ) Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor]]

参数

  • input_ids (torch.LongTensor 形状 (batch_size, sequence_length)) — 词汇表中输入序列 token 的索引。

    索引可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • return_intermediate_token_ids (bool, 可选) — 如果为 True,还会返回中间生成的文本和单元 token。如果您还想获取翻译音频以及文本,请设置为 True
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • speaker_id (int, 可选, 默认为 0) — 用于语音合成的说话人 ID。必须小于 config.vocoder_num_spkrs
  • kwargs (可选) — 剩余的关键字参数字典,将传递给 GenerationMixin.generate()。关键字参数分为两种类型:

    • 不带前缀,它们将作为 **kwargs 输入给每个子模型的 generate 方法,除了 decoder_input_ids,它只会通过文本组件传递。
    • text_speech_ 前缀,它们将分别作为文本模型和语音模型的 generate 方法的输入。它优先于不带前缀的关键字。

    这意味着您可以,例如,为其中一个生成指定生成策略,而不为另一个指定。

返回

Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor]]

  • 如果 return_intermediate_token_ids 为 True,则返回 SeamlessM4Tv2GenerationOutput
  • 如果 return_intermediate_token_ids 为 False,则返回一个由形状为 (batch_size, sequence_length) 的波形和给出每个样本长度的 waveform_lengths 组成的元组。

生成翻译的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_ids, num_beams=4, speech_do_sample=True) 将依次在文本模型上执行束搜索解码,并在语音模型上执行多项式束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForSpeechToSpeech

class transformers.SeamlessM4Tv2ForSpeechToSpeech

< >

( config )

参数

  • config (SeamlessM4Tv2ForSpeechToSpeech) — 模型的配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained() 方法以加载模型权重。

用于S2ST的语音到语音SeamlessM4Tv2模型转换器。

此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档中与通用用法和行为相关的所有事项。

生成

< >

( input_features: typing.Optional[torch.Tensor] = None return_intermediate_token_ids: typing.Optional[bool] = None tgt_lang: typing.Optional[str] = None speaker_id: typing.Optional[int] = 0 **kwargs ) Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor]]

参数

  • input_features (形状为 (batch_size, sequence_length, num_banks)torch.FloatTensor) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • return_intermediate_token_ids (bool, 可选) — 如果为 True,则还会返回中间生成的文本和单元令牌。如果您还想获取翻译音频旁边的文本,请设置为 True
  • tgt_lang (str, 可选) — 用于翻译的目标语言。
  • speaker_id (int, 可选,默认为 0) — 用于语音合成的说话人ID。必须小于 config.vocoder_num_spkrs
  • kwargs (可选) — 其余的关键字参数字典,将传递给 GenerationMixin.generate()。关键字参数有两种类型:

    • 无前缀的参数将被作为 **kwargs 输入到每个子模型的 generate 方法中,除了 decoder_input_ids 只会传递给文本组件。
    • 带有 text_speech_ 前缀的参数将分别作为文本模型和语音模型的 generate 方法的输入。它优先于没有前缀的关键字。

    这意味着您可以例如为一种生成指定生成策略,而另一种则不指定。

返回

Union[SeamlessM4Tv2GenerationOutput, tuple[Tensor]]

  • 如果 return_intermediate_token_ids 为 True,则返回 SeamlessM4Tv2GenerationOutput
  • 如果 return_intermediate_token_ids 为 False,则返回一个由形状为 (batch_size, sequence_length) 的波形和给出每个样本长度的 waveform_lengths 组成的元组。

生成翻译的音频波形。

此方法依次调用两个不同子模型的 .generate 函数。您可以在两个不同级别指定关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的前缀参数。

例如,调用 .generate(input_features, num_beams=4, speech_do_sample=True) 将依次在文本模型上执行波束搜索解码,在语音模型上执行多项式波束搜索采样。

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForTextToText

class transformers.SeamlessM4Tv2ForTextToText

< >

( config: SeamlessM4Tv2Config )

参数

  • config (SeamlessM4Tv2Config) — 模型的配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained() 方法以加载模型权重。

用于 T2TT 的文本到文本 SeamlessM4Tv2 模型转换器。

此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档中与通用用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None attention_mask: typing.Optional[torch.Tensor] = None decoder_input_ids: typing.Optional[torch.LongTensor] = None decoder_attention_mask: typing.Optional[torch.LongTensor] = None encoder_outputs: typing.Optional[tuple[tuple[torch.FloatTensor]]] = None past_key_values: typing.Optional[tuple[tuple[torch.FloatTensor]]] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None decoder_inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 词汇表中输入序列标记的索引。默认情况下将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor可选) — 掩码,用于避免对填充令牌索引执行注意力。掩码值选择在 [0, 1] 中:

    • 1 表示未被掩码的令牌,
    • 0 表示被掩码的令牌。

    什么是注意力掩码?

  • decoder_input_ids (形状为 (batch_size, target_sequence_length)torch.LongTensor可选) — 词汇表中解码器输入序列令牌的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Bart 使用 eos_token_id 作为 decoder_input_ids 生成的起始令牌。如果使用 past_key_values,则可以选择只输入最后一个 decoder_input_ids(那些没有将其过去的键值状态提供给此模型的)(请参阅 past_key_values)。

    对于翻译和摘要训练,应提供 decoder_input_ids。如果未提供 decoder_input_ids,模型将通过根据论文将 input_ids 向右移位以进行去噪预训练来创建此张量。

  • decoder_attention_mask (形状为 (batch_size, target_sequence_length)torch.LongTensor可选) — 默认行为:生成一个忽略 decoder_input_ids 中填充令牌的张量。默认情况下也将使用因果掩码。

    如果要更改填充行为,应阅读 modeling_bart._prepare_decoder_attention_mask 并根据需要进行修改。有关默认策略的更多信息,请参阅 论文 中的图 1。

  • encoder_outputs (tuple[tuple[torch.FloatTensor]], 可选) — 元组包含 (last_hidden_state, 可选: hidden_states, 可选: attentions) last_hidden_state 形状为 (batch_size, sequence_length, hidden_size)可选) 是编码器最后一层输出的隐藏状态序列。用于解码器的交叉注意力。
  • past_key_values (tuple[tuple[torch.FloatTensor]], 可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括模型在解码上一阶段返回的 past_key_values,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • Cache 实例,请参阅我们的 kv cache 指南
    • 长度为 config.n_layerstuple(torch.FloatTensor) 元组,每个元组具有形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的 2 个张量)。这也被称为旧版缓存格式。

    模型将输出与输入相同的缓存格式。如果未传递 past_key_values,则将返回旧版缓存格式。

    如果使用 past_key_values,用户可以选择只输入形状为 (batch_size, 1) 的最后一个 input_ids(那些没有将其过去的键值状态提供给此模型的),而不是形状为 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制权,这将非常有用。
  • decoder_inputs_embeds (形状为 (batch_size, target_sequence_length, hidden_size)torch.FloatTensor可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 decoder_input_ids。如果使用 past_key_values,则可以选择只输入最后一个 decoder_inputs_embeds(请参阅 past_key_values)。如果您希望对 decoder_input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制权,这将非常有用。

    如果 decoder_input_idsdecoder_inputs_embeds 都未设置,则 decoder_inputs_embeds 将取 inputs_embeds 的值。

  • labels (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 用于计算掩码语言建模损失的标签。索引应在 [-100, 0, ..., config.vocab_size] 中(请参阅 input_ids 文档字符串)索引设置为 -100 的令牌将被忽略(掩码),损失只针对标签在 [0, ..., config.vocab_size] 中的令牌计算
  • use_cache (bool, 可选) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码(请参阅 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通的元组。

返回

transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.Seq2SeqLMOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (SeamlessM4Tv2Config) 和输入的不同元素。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) — 语言建模损失。

  • logits (形状为 (batch_size, sequence_length, config.vocab_size)torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。

  • past_key_values (EncoderDecoderCache, 可选,当传递 use_cache=True 或当 config.use_cache=True 时返回) — 它是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv cache 指南

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,则为嵌入层输出,加上每个层输出),形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出时的隐藏状态以及初始嵌入输出。

  • decoder_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。

  • cross_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。

  • encoder_last_hidden_state (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,则为嵌入层输出,加上每个层输出),形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出时的隐藏状态以及初始嵌入输出。

  • encoder_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。

SeamlessM4Tv2ForTextToText 的 forward 方法,覆盖了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数中定义,但在此之后应调用 Module 实例,而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

生成

< >

( input_ids = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) ModelOutputtorch.LongTensor

参数

  • input_ids (torch.Tensor,形状因模态而异,可选) — 词汇表中输入序列令牌的索引。

    可以使用 SeamlessM4TTokenizerSeamlessM4TProcessor 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • generation_config (~generation.GenerationConfig, 可选) — 将用作生成调用的基本参数化的生成配置。传递给 generate() 且与 generation_config 属性匹配的 **kwargs 将覆盖它们。如果未提供 generation_config,将使用默认值,其加载优先级如下:1) 来自 generation_config.json 模型文件(如果存在);2) 来自模型配置。请注意,未指定的参数将继承 GenerationConfig 的默认值,应查阅其文档以对生成进行参数化。
  • logits_processor (LogitsProcessorList, 可选) — 补充由参数和生成配置构建的默认 logits 处理器的自定义 logits 处理器。如果传递的 logits 处理器已用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。
  • stopping_criteria (StoppingCriteriaList, 可选) — 补充由参数和生成配置构建的默认停止准则的自定义停止准则。如果传递的停止准则已用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。
  • prefix_allowed_tokens_fn (Callable[[int, torch.Tensor], list[int]], 可选) — 如果提供,此函数将限制束搜索在每个步骤中只允许的令牌。如果未提供,则不应用任何约束。此函数接受 2 个参数:批处理 ID batch_idinput_ids。它必须返回一个列表,其中包含在批处理 ID batch_id 和先前生成的令牌 inputs_ids 的条件下,下一个生成步骤允许的令牌。此参数对于受前缀约束的生成很有用,如 自回归实体检索 中所述。
  • synced_gpus (bool, 可选,默认为 False) — 是否继续运行 while 循环直到达到 max_length(需要避免与 FullyShardedDataParallel 和 DeepSpeed ZeRO Stage 3 死锁)。
  • kwargs (dict[str, Any], 可选) — generate_config 的临时参数化和/或其他将被转发到模型 forward 函数的额外模型特定 kwargs。

返回

ModelOutputtorch.LongTensor

一个 ModelOutput(如果传递了 return_dict_in_generate=True 或当 config.return_dict_in_generate=True 时)或一个 torch.FloatTensor。可能的 ModelOutput 类型是

生成令牌 ID 序列。

大多数生成控制参数都在 generation_config 中设置,如果未传递,则将设置为模型的默认生成配置。您可以通过将相应参数传递给 generate() 来覆盖任何 generation_config,例如 .generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2ForSpeechToText

class transformers.SeamlessM4Tv2ForSpeechToText

< >

( config: SeamlessM4Tv2Config )

参数

  • config (SeamlessM4Tv2Config) — 模型的配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型相关的权重,只加载配置。查看 from_pretrained() 方法以加载模型权重。

用于 S2TT 的语音到文本 SeamlessM4Tv2 模型转换器。

此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档中与通用用法和行为相关的所有事项。

forward

< >

( input_features: typing.Optional[torch.LongTensor] = None attention_mask: typing.Optional[torch.Tensor] = None decoder_input_ids: typing.Optional[torch.LongTensor] = None decoder_attention_mask: typing.Optional[torch.LongTensor] = None encoder_outputs: typing.Optional[tuple[tuple[torch.FloatTensor]]] = None past_key_values: typing.Optional[tuple[tuple[torch.FloatTensor]]] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None decoder_inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

参数

  • input_features (torch.FloatTensor,形状为 (batch_size, sequence_length, num_banks)) — 输入音频特征。这应由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • attention_mask (torch.Tensor,形状为 (batch_size, sequence_length)可选) — 避免对填充令牌索引执行注意力操作的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示**未掩码**的令牌,
    • 0 表示**已掩码**的令牌。

    什么是注意力掩码?

  • decoder_input_ids (torch.LongTensor,形状为 (batch_size, target_sequence_length)可选) — 解码器输入序列令牌在词汇表中的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Bart 使用 eos_token_id 作为 decoder_input_ids 生成的起始令牌。如果使用 past_key_values,可以选择只输入最后一个 decoder_input_ids(参阅 past_key_values)。

    对于翻译和摘要训练,应提供 decoder_input_ids。如果没有提供 decoder_input_ids,模型将通过将 input_ids 向右移动以进行降噪预训练来创建此张量。

  • decoder_attention_mask (torch.LongTensor,形状为 (batch_size, target_sequence_length)可选) — 默认行为:生成一个忽略 decoder_input_ids 中填充令牌的张量。默认情况下也会使用因果掩码。

    如果想改变填充行为,应阅读 modeling_bart._prepare_decoder_attention_mask 并根据需要进行修改。有关默认策略的更多信息,请参阅 该论文中的图 1。

  • encoder_outputs (tuple[tuple[torch.FloatTensor]]可选) — 元组包含(last_hidden_state可选hidden_states可选attentionslast_hidden_state 的形状为 (batch_size, sequence_length, hidden_size)可选) 是编码器最后一层输出的隐藏状态序列。用于解码器的交叉注意力。
  • past_key_values (tuple[tuple[torch.FloatTensor]]可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括模型在解码上一阶段返回的 past_key_values,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • 一个 Cache 实例,请参阅我们的 kv 缓存指南
    • 长度为 config.n_layerstuple(torch.FloatTensor) 元组,每个元组包含 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量)。这也被称为传统缓存格式。

    模型将输出与作为输入提供的缓存格式相同的缓存格式。如果没有传递 past_key_values,将返回传统缓存格式。

    如果使用 past_key_values,用户可以选择只输入形状为 (batch_size, 1) 的最后一个 input_ids(那些没有将其过去的键值状态提供给此模型的输入 ID),而不是形状为 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,除了传递 input_ids 之外,您还可以选择直接传递嵌入表示。如果您希望对如何将 input_ids 索引转换为相关向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • decoder_inputs_embeds (torch.FloatTensor,形状为 (batch_size, target_sequence_length, hidden_size)可选) — 可选地,除了传递 decoder_input_ids 之外,您还可以选择直接传递嵌入表示。如果使用 past_key_values,可以选择只输入最后一个 decoder_inputs_embeds(参阅 past_key_values)。如果您希望对如何将 decoder_input_ids 索引转换为相关向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。

    如果 decoder_input_idsdecoder_inputs_embeds 都未设置,则 decoder_inputs_embeds 的值将取 inputs_embeds 的值。

  • labels (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 用于计算掩码语言模型损失的标签。索引应在 [-100, 0, ..., config.vocab_size] 之间(请参阅 input_ids 文档字符串)索引设置为 -100 的令牌将被忽略(掩码),损失仅针对标签在 [0, ..., config.vocab_size] 中的令牌计算。
  • use_cache (bool, 可选) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码(参阅 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.Seq2SeqLMOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (SeamlessM4Tv2Config) 和输入的不同元素。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) — 语言建模损失。

  • logits (形状为 (batch_size, sequence_length, config.vocab_size)torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。

  • past_key_values (EncoderDecoderCache, 可选,当传递 use_cache=True 或当 config.use_cache=True 时返回) — 它是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv cache 指南

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,则为嵌入层输出,加上每个层输出),形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出时的隐藏状态以及初始嵌入输出。

  • decoder_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。

  • cross_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。

  • encoder_last_hidden_state (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,则为嵌入层输出,加上每个层输出),形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出时的隐藏状态以及初始嵌入输出。

  • encoder_attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。

SeamlessM4Tv2ForSpeechToText 的 forward 方法重写了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数中定义,但在此之后应调用 Module 实例,而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoProcessor, SeamlessM4Tv2ForSpeechToText
>>> from datasets import load_dataset
>>> import torch

>>> dataset = load_dataset("hf-internal-testing/librispeech_asr_demo", "clean", split="validation")
>>> dataset = dataset.sort("id")
>>> sampling_rate = dataset.features["audio"].sampling_rate

>>> processor = AutoProcessor.from_pretrained("""")
>>> model = SeamlessM4Tv2ForSpeechToText.from_pretrained("""")

>>> # audio file is decoded on the fly
>>> inputs = processor(dataset[0]["audio"]["array"], sampling_rate=sampling_rate, return_tensors="pt")
>>> with torch.no_grad():
...     logits = model(**inputs).logits
>>> predicted_ids = torch.argmax(logits, dim=-1)

>>> # transcribe speech
>>> transcription = processor.batch_decode(predicted_ids)
>>> transcription[0]
...

>>> inputs["labels"] = processor(text=dataset[0]["text"], return_tensors="pt").input_ids

>>> # compute loss
>>> loss = model(**inputs).loss
>>> round(loss.item(), 2)
...

生成

< >

( input_features = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) ModelOutputtorch.LongTensor

参数

  • input_features (torch.FloatTensor,形状为 (batch_size, sequence_length, num_banks)) — 输入音频特征。这应由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()
  • tgt_lang (str, 可选) — 用作翻译目标语言的语言。
  • generation_config (~generation.GenerationConfig, 可选) — 用作生成调用基础参数的生成配置。传递给生成与 generation_config 属性匹配的 **kwargs 将覆盖它们。如果未提供 generation_config,将使用默认值,其加载优先级如下:1) 如果存在,从 generation_config.json 模型文件加载;2) 从模型配置加载。请注意,未指定的参数将继承 GenerationConfig 的默认值,应查阅其文档以参数化生成。
  • logits_processor (LogitsProcessorList, 可选) — 补充从参数和生成配置构建的默认 logits 处理器的自定义 logits 处理器。如果传递的 logit 处理器已使用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。
  • stopping_criteria (StoppingCriteriaList, 可选) — 补充从参数和生成配置构建的默认停止标准的自定义停止标准。如果传递的停止标准已使用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。
  • prefix_allowed_tokens_fn (Callable[[int, torch.Tensor], list[int]], 可选) — 如果提供,此函数会在每一步将束搜索限制为仅允许的令牌。如果未提供,则不应用任何限制。此函数接受 2 个参数:批处理 ID batch_idinput_ids。它必须返回一个列表,其中包含根据批处理 ID batch_id 和先前生成的令牌 inputs_ids,在下一步生成允许的令牌。此参数对于基于前缀的约束生成很有用,如 自回归实体检索 中所述。
  • synced_gpus (bool, 可选, 默认为 False) — 是否继续运行 while 循环直到达到 max_length(需要避免与 FullyShardedDataParallel 和 DeepSpeed ZeRO Stage 3 死锁)。
  • kwargs (dict[str, Any], 可选) — generate_config 的临时参数化和/或将转发到模型 forward 函数的其他模型特定 kwargs。

返回

ModelOutputtorch.LongTensor

一个 ModelOutput(如果传递了 return_dict_in_generate=True 或当 config.return_dict_in_generate=True 时)或一个 torch.FloatTensor。可能的 ModelOutput 类型是

生成令牌 ID 序列。

大多数生成控制参数都在 generation_config 中设置,如果未传递,则将设置为模型的默认生成配置。您可以通过将相应参数传递给 generate() 来覆盖任何 generation_config,例如 .generate(inputs, num_beams=4, do_sample=True)

有关生成策略和代码示例的概述,请查看以下指南

SeamlessM4Tv2Config

class transformers.SeamlessM4Tv2Config

< >

( vocab_size = 256102 t2u_vocab_size = 10082 char_vocab_size = 10943 hidden_size = 1024 initializer_range = 0.02 layer_norm_eps = 1e-05 use_cache = True max_position_embeddings = 4096 is_encoder_decoder = True encoder_layerdrop = 0.05 decoder_layerdrop = 0.05 activation_function = 'relu' dropout = 0.1 attention_dropout = 0.1 activation_dropout = 0.0 scale_embedding = True encoder_layers = 24 encoder_ffn_dim = 8192 encoder_attention_heads = 16 decoder_layers = 24 decoder_ffn_dim = 8192 decoder_attention_heads = 16 decoder_start_token_id = 3 max_new_tokens = 256 pad_token_id = 0 bos_token_id = 2 eos_token_id = 3 speech_encoder_layers = 24 speech_encoder_attention_heads = 16 speech_encoder_intermediate_size = 4096 speech_encoder_hidden_act = 'swish' speech_encoder_dropout = 0.0 add_adapter = True speech_encoder_layerdrop = 0.1 feature_projection_input_dim = 160 adaptor_kernel_size = 8 adaptor_stride = 8 adaptor_dropout = 0.1 num_adapter_layers = 1 position_embeddings_type = 'relative_key' conv_depthwise_kernel_size = 31 left_max_position_embeddings = 64 right_max_position_embeddings = 8 speech_encoder_chunk_size = 20000 speech_encoder_left_chunk_num = 128 t2u_bos_token_id = 0 t2u_pad_token_id = 1 t2u_eos_token_id = 2 t2u_encoder_layers = 6 t2u_encoder_ffn_dim = 8192 t2u_encoder_attention_heads = 16 t2u_decoder_layers = 6 t2u_decoder_ffn_dim = 8192 t2u_decoder_attention_heads = 16 t2u_max_position_embeddings = 4096 t2u_variance_predictor_embed_dim = 1024 t2u_variance_predictor_hidden_dim = 256 t2u_variance_predictor_kernel_size = 3 t2u_variance_pred_dropout = 0.5 sampling_rate = 16000 upsample_initial_channel = 512 upsample_rates = [5, 4, 4, 2, 2] upsample_kernel_sizes = [11, 8, 8, 4, 4] resblock_kernel_sizes = [3, 7, 11] resblock_dilation_sizes = [[1, 3, 5], [1, 3, 5], [1, 3, 5]] leaky_relu_slope = 0.1 unit_hifi_gan_vocab_size = 10000 unit_embed_dim = 1280 lang_embed_dim = 256 spkr_embed_dim = 256 vocoder_num_langs = 36 vocoder_num_spkrs = 200 variance_predictor_kernel_size = 3 var_pred_dropout = 0.5 vocoder_offset = 4 **kwargs )

参数

子模型之间共享的参数

  • hidden_size (int, 可选, 默认为 1024) — 架构中“中间”层的维度。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-05) — 层归一化层使用的 epsilon 值。
  • use_cache (bool, 可选, 默认为 True) — 模型是否应返回最后一个键/值注意力(并非所有模型都使用此功能)。
  • max_position_embeddings (int, 可选, 默认为 4096) — 此模型文本编码器和解码器可能使用的最大序列长度。通常为了以防万一设置为较大值(例如,512、1024 或 2048)。
  • is_encoder_decoder (bool, 可选, 默认为 True) — 模型是否用作编码器/解码器。
  • encoder_layerdrop (float, 可选, 默认为 0.05) — 编码器的 LayerDrop 概率。有关更多详细信息,请参阅 [LayerDrop 论文](请参阅 https://huggingface.co/papers/1909.11556)。
  • decoder_layerdrop (float, 可选, 默认为 0.05) — 解码器的 LayerDrop 概率。有关更多详细信息,请参阅 [LayerDrop 论文](请参阅 https://huggingface.co/papers/1909.11556)。
  • activation_function (strfunction, 可选, 默认为 "relu") — 解码器和前馈层中的非线性激活函数(函数或字符串)。如果是字符串,则支持 "gelu""relu""selu""swish""gelu_new"
  • dropout (float, 可选, 默认为 0.1) — 嵌入、编码器、解码器和池化器中所有全连接层的 dropout 概率。
  • attention_dropout (float, optional, defaults to 0.1) — 所有注意力层的 dropout 概率。
  • activation_dropout (float, optional, defaults to 0.0) — 模型中所有激活层的 dropout 概率。
  • scale_embedding (bool, optional, defaults to True) — 通过除以 sqrt(d_model) 来缩放嵌入。

文本编码器和文本解码器特定参数

  • encoder_layers (int, optional, defaults to 24) — Transformer 文本编码器中的隐藏层数量。
  • encoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本编码器中“中间”(即前馈)层的维度。
  • encoder_attention_heads (int, optional, defaults to 16) — Transformer 文本编码器中每个注意力层的注意力头数量。
  • decoder_layers (int, optional, defaults to 24) — Transformer 文本解码器中的隐藏层数量。
  • decoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本解码器中“中间”(即前馈)层的维度。
  • decoder_attention_heads (int, optional, defaults to 16) — Transformer 文本解码器中每个注意力层的注意力头数量。
  • decoder_start_token_id (int, optional, defaults to 3) — 如果编码器-解码器模型以与 bos 不同的标记开始解码,则该标记的 ID。仅应用于文本解码器。
  • max_new_tokens (int, optional, defaults to 256) — 要生成的最大文本标记数量,忽略提示中的标记数量。
  • pad_token_id (int, optional, defaults to 0) — 填充文本标记的 ID。仅应用于文本解码器模型。
  • bos_token_id (int, optional, defaults to 2) — 流开始文本标记的 ID。仅应用于文本解码器模型。
  • eos_token_id (int, optional, defaults to 3) — 流结束文本标记的 ID。仅应用于文本解码器模型。

语音编码器特定参数

  • speech_encoder_layers (int, optional, defaults to 24) — Transformer 语音编码器中的隐藏层数量。
  • speech_encoder_attention_heads (int, optional, defaults to 16) — Transformer 语音编码器中每个注意力层的注意力头数量。
  • speech_encoder_intermediate_size (int, optional, defaults to 4096) — Transformer 语音编码器中“中间”(即前馈)层的维度。
  • speech_encoder_hidden_act (strfunction, optional, defaults to "swish") — 语音编码器中的非线性激活函数(函数或字符串)。如果为字符串,支持 "gelu""relu""selu""swish""gelu_new"
  • speech_encoder_dropout (float, optional, defaults to 0.0) — 语音编码器中所有层的 dropout 概率。
  • add_adapter (bool, optional, defaults to True) — 在语音编码器顶部添加适配器层。
  • speech_encoder_layerdrop (float, optional, defaults to 0.1) — 语音编码器的 LayerDrop 概率。有关更多详细信息,请参阅 [LayerDrop 论文] (see https://huggingface.co/papers/1909.11556)。
  • feature_projection_input_dim (int, optional, defaults to 160) — 语音编码器输入特征投影的输入维度,即使用 SeamlessM4TFeatureExtractor 处理输入音频后的维度。
  • adaptor_kernel_size (int, optional, defaults to 8) — 适配器网络中卷积层的内核大小。仅当 add_adapter 为 True 时相关。
  • adaptor_stride (int, optional, defaults to 8) — 适配器网络中卷积层的步幅。仅当 add_adapter 为 True 时相关。
  • adaptor_dropout (float, optional, defaults to 0.1) — 语音适配器中所有层的 dropout 概率。
  • num_adapter_layers (int, optional, defaults to 1) — 适配器网络中应使用的卷积层数量。仅当 add_adapter 为 True 时相关。
  • position_embeddings_type (str, optional, defaults to "relative_key") — 可指定为 relative_key。如果保留为 None,则不应用相对位置嵌入。仅应用于语音编码器。有关 "relative_key" 的更多信息,请参阅 Self-Attention with Relative Position Representations (Shaw et al.)
  • conv_depthwise_kernel_size (int, optional, defaults to 31) — Conformer 块中卷积深度 1D 层的内核大小。仅应用于语音编码器。
  • left_max_position_embeddings (int, optional, defaults to 64) — 相对位置的左裁剪值。
  • right_max_position_embeddings (int, optional, defaults to 8) — 相对位置的右裁剪值。
  • speech_encoder_chunk_size (int, optional, defaults to 20000) — 每个注意力块的大小。
  • speech_encoder_left_chunk_num (int, optional, defaults to 128) — 允许向前看的左侧块数量。

文本到单元 (t2u) 模型特定参数

  • t2u_bos_token_id (int, optional, defaults to 0) — 流开始单元标记的 ID。仅应用于文本到单元 seq2seq 模型。
  • t2u_pad_token_id (int, optional, defaults to 1) — 填充单元标记的 ID。仅应用于文本到单元 seq2seq 模型。
  • t2u_eos_token_id (int, optional, defaults to 2) — 流结束单元标记的 ID。仅应用于文本到单元 seq2seq 模型。
  • t2u_encoder_layers (int, optional, defaults to 6) — Transformer 文本到单元编码器中的隐藏层数量。
  • t2u_encoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元编码器中“中间”(即前馈)层的维度。
  • t2u_encoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元编码器中每个注意力层的注意力头数量。
  • t2u_decoder_layers (int, optional, defaults to 6) — Transformer 文本到单元解码器中的隐藏层数量。
  • t2u_decoder_ffn_dim (int, optional, defaults to 8192) — Transformer 文本到单元解码器中“中间”(即前馈)层的维度。
  • t2u_decoder_attention_heads (int, optional, defaults to 16) — Transformer 文本到单元解码器中每个注意力层的注意力头数量。
  • t2u_max_position_embeddings (int, optional, defaults to 4096) — 此模型文本到单元组件可能使用的最大序列长度。通常为了以防万一设置为较大值(例如 512、1024 或 2048)。
  • t2u_variance_predictor_embed_dim (int, optional, defaults to 1024) — 文本到单元持续时间预测器的投影维度。
  • t2u_variance_predictor_hidden_dim (int, optional, defaults to 256) — 文本到单元持续时间预测器的内部维度。
  • t2u_variance_predictor_kernel_size (int, optional, defaults to 3) — 文本到单元持续时间预测器卷积层的内核大小。
  • t2u_variance_pred_dropout (float, optional, defaults to 0.5) — 文本到单元持续时间预测器的 dropout 概率。

    Hifi-Gan Vocoder 特定参数

  • sampling_rate (int, optional, defaults to 16000) — 输出音频的采样率,以赫兹 (Hz) 表示。
  • upsample_initial_channel (int, optional, defaults to 512) — hifi-gan 上采样网络的输入通道数。仅适用于声码器。
  • upsample_rates (tuple[int]list[int], optional, defaults to [5, 4, 4, 2, 2]) — 定义声码器上采样网络中每个 1D 卷积层步幅的整数元组。upsample_rates 的长度定义了卷积层的数量,并且必须与 upsample_kernel_sizes 的长度匹配。仅适用于声码器。
  • upsample_kernel_sizes (tuple[int]list[int], optional, defaults to [11, 8, 8, 4, 4]) — 定义声码器上采样网络中每个 1D 卷积层内核大小的整数元组。upsample_kernel_sizes 的长度定义了卷积层的数量,并且必须与 upsample_rates 的长度匹配。仅适用于声码器。
  • resblock_kernel_sizes (tuple[int]list[int], optional, defaults to [3, 7, 11]) — 定义多接收场融合 (MRF) 模块中声码器 1D 卷积层内核大小的整数元组。仅适用于声码器。
  • resblock_dilation_sizes (tuple[tuple[int]]list[list[int]], optional, defaults to [[1, 3, 5], [1, 3, 5], [1, 3, 5]]) — 定义多接收场融合 (MRF) 模块中声码器扩张 1D 卷积层扩张率的嵌套整数元组。仅适用于声码器。
  • leaky_relu_slope (float, optional, defaults to 0.1) — 声码器中 Leaky ReLU 激活函数使用的负斜率角度。仅适用于声码器。
  • unit_hifi_gan_vocab_size (int, optional, defaults to 10000) — SeamlessM4Tv2 声码器的词汇量。定义了调用 ~SeamlessM4Tv2Model~SeamlessM4Tv2ForSpeechToSpeech~SeamlessM4Tv2ForTextToSpeech 的声码器时,inputs_ids 可以表示的不同单元标记的数量。
  • unit_embed_dim (int, optional, defaults to 1280) — 提供给 hifi-gan 声码器的输入 ID 的投影维度。仅适用于声码器。
  • lang_embed_dim (int, optional, defaults to 256) — 提供给 hifi-gan 声码器的目标语言的投影维度。仅适用于声码器。
  • spkr_embed_dim (int, optional, defaults to 256) — 提供给 hifi-gan 声码器的说话人 ID 的投影维度。仅适用于声码器。
  • vocoder_num_langs (int, optional, defaults to 36) — 声码器支持的语言数量。可能与 t2u_num_langs 不同。
  • vocoder_num_spkrs (int, optional, defaults to 200) — 声码器支持的说话人数量。
  • variance_predictor_kernel_size (int, optional, defaults to 3) — 持续时间预测器的内核大小。仅适用于声码器。
  • var_pred_dropout (float, optional, defaults to 0.5) — 持续时间预测器的 dropout 概率。仅适用于声码器。
  • vocoder_offset (int, optional, defaults to 4) — 将单元标记 ID 偏移此数量以考虑符号标记。仅适用于声码器。

这是用于存储 ~SeamlessM4Tv2Model 配置的配置类。它用于根据指定的参数实例化 SeamlessM4Tv2 模型,定义模型架构。使用默认值实例化配置将产生与 SeamlessM4Tv2 "" 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。

>>> from transformers import SeamlessM4Tv2Model, SeamlessM4Tv2Config

>>> # Initializing a SeamlessM4Tv2 "" style configuration
>>> configuration = SeamlessM4Tv2Config()

>>> # Initializing a model from the "" style configuration
>>> model = SeamlessM4Tv2Model(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config
< > 在 GitHub 上更新