SeamlessM4T
概述
SeamlessM4T 模型由 Meta AI 的 Seamless Communication 团队在 SeamlessM4T — Massively Multilingual & Multimodal Machine Translation 中提出。
这是该模型的 version 1 版本发布。有关更新的 version 2 版本发布,请参阅 Seamless M4T v2 文档。
SeamlessM4T 是一系列模型的集合,旨在提供高质量的翻译,使来自不同语言社区的人们能够通过语音和文本轻松交流。
SeamlessM4T 无需依赖单独的模型即可实现多项任务
- 语音到语音翻译 (S2ST)
- 语音到文本翻译 (S2TT)
- 文本到语音翻译 (T2ST)
- 文本到文本翻译 (T2TT)
- 自动语音识别 (ASR)
SeamlessM4TModel 可以执行上述所有任务,但每个任务也有其自己专用的子模型。
论文摘要如下
创造巴别鱼(一种可以帮助个人在任意两种语言之间翻译语音的工具)需要什么?虽然最近基于文本的模型的突破已将机器翻译的覆盖范围扩展到 200 多种语言,但统一的语音到语音翻译模型尚未取得类似的进展。更具体地说,传统的语音到语音翻译系统依赖于逐步执行翻译的级联系统,使得高性能的统一系统遥不可及。为了解决这些差距,我们推出了 SeamlessM4T,这是一个单一模型,支持多达 100 种语言的语音到语音翻译、语音到文本翻译、文本到语音翻译、文本到文本翻译和自动语音识别。为了构建这个模型,我们使用了 100 万小时的开放语音音频数据,通过 w2v-BERT 2.0 学习自监督语音表示。随后,我们创建了一个自动对齐的语音翻译多模态语料库。经过筛选并与人工标注和伪标注数据相结合,我们开发了第一个能够为语音和文本在英语和其他语言之间进行翻译的多语言系统。在 FLEURS 上,SeamlessM4T 为翻译成多种目标语言设定了新标准,在直接语音到文本翻译方面比之前的 SOTA 提高了 20% 的 BLEU 值。与强大的级联模型相比,SeamlessM4T 在语音到文本的英语翻译质量方面提高了 1.3 BLEU 值,在语音到语音的 ASR-BLEU 方面提高了 2.6 BLEU 值。经过鲁棒性测试,我们的系统在语音到文本任务中,在背景噪音和说话人变化方面,比当前的 SOTA 模型表现更好。至关重要的是,我们评估了 SeamlessM4T 的性别偏见和新增毒性,以评估翻译的安全性。最后,这项工作中的所有贡献都是开源的,可以在 https://github.com/facebookresearch/seamless_communication 上访问
用法
首先,加载处理器和模型的检查点
>>> from transformers import AutoProcessor, SeamlessM4TModel
>>> processor = AutoProcessor.from_pretrained("facebook/hf-seamless-m4t-medium")
>>> model = SeamlessM4TModel.from_pretrained("facebook/hf-seamless-m4t-medium")
您可以无缝地在文本或音频上使用此模型,以生成翻译后的文本或翻译后的音频。
以下是如何使用处理器处理文本和音频
>>> # let's load an audio sample from an Arabic speech corpus
>>> from datasets import load_dataset
>>> dataset = load_dataset("arabic_speech_corpus", split="test", streaming=True)
>>> audio_sample = next(iter(dataset))["audio"]
>>> # now, process it
>>> audio_inputs = processor(audios=audio_sample["array"], return_tensors="pt")
>>> # now, process some English test as well
>>> text_inputs = processor(text = "Hello, my dog is cute", src_lang="eng", return_tensors="pt")
语音
SeamlessM4TModel 可以无缝地生成文本或语音,只需进行少量或无需更改。让我们以俄语语音翻译为目标
>>> audio_array_from_text = model.generate(**text_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()
>>> audio_array_from_audio = model.generate(**audio_inputs, tgt_lang="rus")[0].cpu().numpy().squeeze()
基本上使用相同的代码,我已经将英语文本和阿拉伯语语音翻译成俄语语音样本。
文本
同样,您可以使用相同的模型从音频文件或文本生成翻译后的文本。您只需将 generate_speech=False
传递给 SeamlessM4TModel.generate()。这次,让我们翻译成法语。
>>> # from audio
>>> output_tokens = model.generate(**audio_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_audio = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)
>>> # from text
>>> output_tokens = model.generate(**text_inputs, tgt_lang="fra", generate_speech=False)
>>> translated_text_from_text = processor.decode(output_tokens[0].tolist()[0], skip_special_tokens=True)
提示
1. 使用专用模型
SeamlessM4TModel 是用于生成语音和文本的顶级 transformers 模型,但您也可以使用专用模型来执行任务,而无需额外的组件,从而减少内存占用。例如,您可以将音频到音频生成代码段替换为专用于 S2ST 任务的模型,其余代码完全相同
>>> from transformers import SeamlessM4TForSpeechToSpeech
>>> model = SeamlessM4TForSpeechToSpeech.from_pretrained("facebook/hf-seamless-m4t-medium")
或者您可以将文本到文本生成代码段替换为专用于 T2TT 任务的模型,您只需删除 generate_speech=False
即可。
>>> from transformers import SeamlessM4TForTextToText
>>> model = SeamlessM4TForTextToText.from_pretrained("facebook/hf-seamless-m4t-medium")
请随意试用 SeamlessM4TForSpeechToText 和 SeamlessM4TForTextToSpeech。
2. 更改说话人身份
您可以使用 spkr_id
参数更改用于语音合成的说话人。对于某些语言,一些 spkr_id
比其他语言效果更好!
3. 更改生成策略
您可以为语音和文本生成使用不同的 生成策略,例如 .generate(input_ids=input_ids, text_num_beams=4, speech_do_sample=True)
,这将连续对文本模型执行集束搜索解码,并对语音模型执行多项式采样。
4. 同时生成语音和文本
将 return_intermediate_token_ids=True
与 SeamlessM4TModel 一起使用,以同时返回语音和文本!
模型架构
SeamlessM4T 具有通用的架构,可以流畅地处理文本和语音的顺序生成。此设置包括两个序列到序列 (seq2seq) 模型。第一个模型将输入模态翻译成翻译后的文本,而第二个模型从翻译后的文本生成语音标记,称为“单元标记”。
每种模态都有其自己专用的编码器,具有独特的架构。此外,对于语音输出,在第二个 seq2seq 模型之上放置了一个受 HiFi-GAN 架构启发的声码器。
以下是生成过程的工作原理
- 输入文本或语音通过其特定的编码器进行处理。
- 解码器以所需的语言创建文本标记。
- 如果需要语音生成,则第二个 seq2seq 模型(遵循标准的编码器-解码器结构)生成单元标记。
- 然后,这些单元标记通过最终的声码器以生成实际的语音。
此模型由 ylacombe 贡献。原始代码可以在 此处找到。
SeamlessM4TModel
class transformers.SeamlessM4TModel
< source >( config current_modality = 'text' )
参数
- config (~SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
- current_modality (
str
, 可选, 默认为"text"
) — 默认模态。用于初始化模型。
原始的 SeamlessM4T 模型转换器,可用于所有可用任务(S2ST、S2TT、T2TT、T2ST)。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解所有与通用用法和行为相关的内容。
generate
< source >( input_ids: Optional = None input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 generate_speech: Optional = True **kwargs ) → Union[SeamlessM4TGenerationOutput, Tuple[Tensor], ModelOutput]
参数
- input_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
,可选) — 词汇表中输入序列标记的索引。可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- input_features (
torch.FloatTensor
,形状为(batch_size, sequence_length, num_banks)
,可选) — 输入音频特征。这应由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。 - return_intermediate_token_ids (
bool
, 可选) — 如果为True
,则还会返回中间生成的文本和单元标记。如果您还想获取与音频一起翻译的文本,请设置为True
。请注意,如果generate_speech=True
,则将忽略此参数。 - tgt_lang (
str
, 可选) — 用作翻译目标语言的语言。 - spkr_id (
int
, 可选, 默认为 0) — 用于语音合成的说话人的 ID。必须低于config.vocoder_num_spkrs
。 - generate_speech (
bool
, 可选, 默认为True
) — 如果为False
,则仅返回文本标记,而不生成语音。 - kwargs (可选) — 将传递给 GenerationMixin.generate() 的关键字参数的其余字典。关键字参数有两种类型:
- 不带前缀的参数,将作为
**kwargs
输入到每个子模型的generate
方法中,但decoder_input_ids
除外,后者仅通过文本组件传递。 - 带有 text_ 或 speech_ 前缀的参数,将分别输入到文本模型和语音模型的
generate
方法中。它优先于不带前缀的关键字。
这意味着您可以例如,为一种生成指定生成策略,但不为另一种生成指定生成策略。
- 不带前缀的参数,将作为
返回
Union[SeamlessM4TGenerationOutput, Tuple[Tensor], ModelOutput]
- 如果
generate_speech
和return_intermediate_token_ids
,则返回SeamlessM4TGenerationOutput
。 - 如果
generate_speech
且不是return_intermediate_token_ids
,则返回一个元组,该元组由形状为(batch_size, sequence_length)
的波形和提供每个样本长度的waveform_lengths
组成。 - 如果
generate_speech=False
,则将返回ModelOutput
。
生成翻译后的标记 ID 和/或翻译后的音频波形。
此方法依次调用两个不同子模型的 .generate
函数。您可以指定两个不同级别的关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的带前缀的参数。
例如,调用 .generate(input_ids=input_ids, num_beams=4, speech_do_sample=True)
将连续对文本模型执行集束搜索解码,并对语音模型执行多项式集束搜索采样。
有关生成策略和代码示例的概述,请查看 以下指南。
SeamlessM4TForTextToSpeech
class transformers.SeamlessM4TForTextToSpeech
< source >( config: SeamlessM4TConfig )
参数
- config (~SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
用于 T2ST 的文本到语音 SeamlessM4T 模型转换器。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档,了解与常规用法和行为相关的所有事项。
generate
< source >( input_ids: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 **kwargs ) → Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]
参数
- input_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
) — 词汇表中输入序列 tokens 的索引。可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- return_intermediate_token_ids (
bool
, 可选) — 如果为True
,则还会返回中间生成的文本和单元 tokens。如果您还想获取音频旁边的翻译文本,请设置为True
。 - tgt_lang (
str
, 可选) — 用作翻译目标语言的语言。 - spkr_id (
int
, 可选,默认为 0) — 用于语音合成的说话人 ID。必须低于config.vocoder_num_spkrs
。 - kwargs (可选) — 将传递给 GenerationMixin.generate() 的关键字参数的剩余字典。关键字参数有两种类型:
- 没有前缀,它们将作为每个子模型的
generate
方法的**kwargs
输入,但decoder_input_ids
除外,它将仅通过文本组件传递。 - 带有 text_ 或 speech_ 前缀,它们将分别作为文本模型和语音模型的
generate
方法的输入。它优先于没有前缀的关键字。
这意味着您可以例如为一个生成指定生成策略,但不为另一个生成指定生成策略。
- 没有前缀,它们将作为每个子模型的
返回
Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]
- 如果
return_intermediate_token_ids
,则返回SeamlessM4TGenerationOutput
。 - 如果不是
return_intermediate_token_ids
,则返回由形状为(batch_size, sequence_length)
的波形和提供每个样本长度的waveform_lengths
组成的元组。
生成翻译后的音频波形。
此方法依次调用两个不同子模型的 .generate
函数。您可以指定两个不同级别的关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的带前缀的参数。
例如,调用 .generate(input_ids, num_beams=4, speech_do_sample=True)
将连续对文本模型执行束搜索解码,并对语音模型执行多项式束搜索采样。
有关生成策略和代码示例的概述,请查看 以下指南。
SeamlessM4TForSpeechToSpeech
class transformers.SeamlessM4TForSpeechToSpeech
< source >( config )
参数
- config (~SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
用于 S2ST 的语音到语音 SeamlessM4T 模型转换器。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档,了解与常规用法和行为相关的所有事项。
generate
< source >( input_features: Optional = None return_intermediate_token_ids: Optional = None tgt_lang: Optional = None spkr_id: Optional = 0 **kwargs ) → Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, sequence_length, num_banks)
) — 输入音频特征。这应由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。 有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。 - return_intermediate_token_ids (
bool
, 可选) — 如果为True
,则还会返回中间生成的文本和单元 tokens。如果您还想获取音频旁边的翻译文本,请设置为True
。 - tgt_lang (
str
, 可选) — 用作翻译目标语言的语言。 - spkr_id (
int
, 可选,默认为 0) — 用于语音合成的说话人 ID。必须低于config.vocoder_num_spkrs
。 - kwargs (可选) — 将传递给 GenerationMixin.generate() 的关键字参数的剩余字典。关键字参数有两种类型:
- 没有前缀,它们将作为每个子模型的
generate
方法的**kwargs
输入,但decoder_input_ids
除外,它将仅通过文本组件传递。 - 带有 text_ 或 speech_ 前缀,它们将分别作为文本模型和语音模型的
generate
方法的输入。它优先于没有前缀的关键字。
这意味着您可以例如为一个生成指定生成策略,但不为另一个生成指定生成策略。
- 没有前缀,它们将作为每个子模型的
返回
Union[SeamlessM4TGenerationOutput, Tuple[Tensor]]
- 如果
return_intermediate_token_ids
,则返回SeamlessM4TGenerationOutput
。 - 如果不是
return_intermediate_token_ids
,则返回由形状为(batch_size, sequence_length)
的波形和提供每个样本长度的waveform_lengths
组成的元组。
生成翻译后的音频波形。
此方法依次调用两个不同子模型的 .generate
函数。您可以指定两个不同级别的关键字参数:将传递给两个模型的通用参数,或将传递给其中一个模型的带前缀的参数。
例如,调用 .generate(input_features, num_beams=4, speech_do_sample=True)
将连续对文本模型执行束搜索解码,并对语音模型执行多项式束搜索采样。
有关生成策略和代码示例的概述,请查看 以下指南。
SeamlessM4TForTextToText
class transformers.SeamlessM4TForTextToText
< source >( config: SeamlessM4TConfig )
参数
- config (~SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
用于 T2TT 的文本到文本 SeamlessM4T 模型转换器。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档,了解与常规用法和行为相关的所有事项。
forward
< source >( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )
参数
- input_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
, 可选) — 词汇表中输入序列 tokens 的索引。可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.FloatTensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充 token 索引上执行 attention 的掩码。掩码值在[0, 1]
中选择:- 1 表示 未被掩码 的 token,
- 0 表示 被掩码 的 token。
- decoder_input_ids (
torch.LongTensor
,形状为(batch_size, target_sequence_length)
,可选) — 解码器输入序列 token 在词汇表中的索引。索引可以使用 AutoTokenizer 获得。 详见 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 获取详细信息。
Bart 使用
eos_token_id
作为decoder_input_ids
生成的起始 token。 如果使用了past_key_values
,则可以选择仅输入最后一个decoder_input_ids
(参见past_key_values
)。对于翻译和摘要训练,应该提供
decoder_input_ids
。 如果没有提供decoder_input_ids
,模型将通过将input_ids
向右移动来创建此张量,以进行去噪预训练,遵循论文的做法。 - decoder_attention_mask (
torch.LongTensor
,形状为(batch_size, target_sequence_length)
,可选) — 默认行为:生成一个张量,该张量忽略decoder_input_ids
中的填充 token。默认情况下也会使用因果掩码。如果您想更改填充行为,您应该阅读
modeling_bart._prepare_decoder_attention_mask
并根据您的需求进行修改。 有关默认策略的更多信息,请参见 论文 中的图 1。 - encoder_outputs (
tuple(tuple(torch.FloatTensor)
,可选) — 元组由 (last_hidden_state
,可选:hidden_states
,可选:attentions
) 组成。last_hidden_state
的形状为(batch_size, sequence_length, hidden_size)
,可选) 是编码器最后一层的输出处的隐藏状态序列。 在解码器的交叉 attention 中使用。 - past_key_values (
tuple(tuple(torch.FloatTensor))
,可选,当传递use_cache=True
或当config.use_cache=True
时返回) — 长度为config.n_layers
的tuple(tuple(torch.FloatTensor))
元组,其中每个元组都有 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)
的张量和 2 个形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)
的附加张量。包含预先计算的隐藏状态(自注意力模块和交叉注意力模块中的键和值),可以用于(参见
past_key_values
输入)加速顺序解码。如果使用
past_key_values
,用户可以选择仅输入最后一个decoder_input_ids
(那些没有将其过去的键值状态提供给此模型的)形状为(batch_size, 1)
而不是所有形状为(batch_size, sequence_length)
的decoder_input_ids
。 - inputs_embeds (
torch.FloatTensor
,形状为(batch_size, sequence_length, hidden_size)
,可选) — (可选)您可以选择直接传递嵌入表示,而不是传递input_ids
。 如果您想要比模型的内部嵌入查找矩阵更好地控制如何将input_ids
索引转换为关联向量,这将非常有用。 - decoder_inputs_embeds (
torch.FloatTensor
,形状为(batch_size, target_sequence_length, hidden_size)
,可选) — (可选)您可以选择直接传递嵌入表示,而不是传递decoder_input_ids
。 如果使用了past_key_values
,则可以选择仅输入最后一个decoder_inputs_embeds
(参见past_key_values
)。 如果您想要比模型的内部嵌入查找矩阵更好地控制如何将decoder_input_ids
索引转换为关联向量,这将非常有用。如果
decoder_input_ids
和decoder_inputs_embeds
均未设置,则decoder_inputs_embeds
取inputs_embeds
的值。 - labels (
torch.LongTensor
,形状为(batch_size, sequence_length)
,可选) — 用于计算掩码语言模型损失的标签。索引应在[-100, 0, ..., config.vocab_size]
中(参见input_ids
文档字符串)。 索引设置为-100
的 token 将被忽略(掩码),损失仅针对标签在[0, ..., config.vocab_size]
中的 token 计算 - use_cache (
bool
,可选) — 如果设置为True
,则返回past_key_values
键值状态,并可用于加速解码(参见past_key_values
)。 - output_attentions (
bool
,可选) — 是否返回所有 attention 层的 attention 张量。 详见返回张量下的attentions
获取更多详细信息。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。 详见返回张量下的hidden_states
获取更多详细信息。 - return_dict (
bool
,可选) — 是否返回 ModelOutput 而不是普通元组。
SeamlessM4TForTextToText forward 方法,覆盖了 __call__
特殊方法。
虽然 forward 传递的配方需要在该函数内定义,但应该在之后调用 Module
实例而不是此函数,因为前者负责处理预处理和后处理步骤,而后者会默默地忽略它们。
generate
< source >( input_ids = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) → ModelOutput 或 torch.LongTensor
参数
- input_ids (
torch.Tensor
,形状取决于模态,可选) — 输入序列 token 在词汇表中的索引。索引可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获得。 详见 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 获取详细信息。
- tgt_lang (
str
,可选) — 用作翻译目标语言的语言。 - generation_config (
~generation.GenerationConfig
,可选) — 要用作生成调用的基本参数化的生成配置。 传递给 generate 的与generation_config
的属性匹配的**kwargs
将覆盖它们。 如果未提供generation_config
,将使用默认值,该默认值具有以下加载优先级:1) 来自generation_config.json
模型文件(如果存在);2) 来自模型配置。 请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。 - logits_processor (
LogitsProcessorList
,可选) — 补充从参数和生成配置构建的默认 logits 处理器的自定义 logits 处理器。 如果传递的 logit 处理器已使用参数或生成配置创建,则会抛出错误。 此功能适用于高级用户。 - stopping_criteria (
StoppingCriteriaList
,可选) — 补充从参数和生成配置构建的默认停止标准的自定义停止标准。 如果传递的停止标准已使用参数或生成配置创建,则会抛出错误。 此功能适用于高级用户。 - prefix_allowed_tokens_fn (
Callable[[int, torch.Tensor], List[int]]
,可选) — 如果提供,此函数将 beam search 约束为每一步仅允许的 token。 如果未提供,则不应用约束。 此函数接受 2 个参数:批次 IDbatch_id
和input_ids
。 它必须返回一个列表,其中包含基于批次 IDbatch_id
和先前生成的 tokeninputs_ids
的下一个生成步骤的允许 token。 此参数对于基于前缀的约束生成非常有用,如 Autoregressive Entity Retrieval 中所述。 - synced_gpus (
bool
,可选,默认为False
) — 是否继续运行 while 循环直到 max_length(ZeRO stage 3 需要) - kwargs (
Dict[str, Any]
,可选) —generate_config
的 Ad hoc 参数化和/或将转发到模型的forward
函数的其他特定于模型的 kwargs。
返回
ModelOutput 或 torch.LongTensor
ModelOutput(如果 return_dict_in_generate=True
或当 config.return_dict_in_generate=True
时)或 torch.FloatTensor
。 可能的 ModelOutput 类型是
生成 token id 序列。
大多数生成控制参数在 generation_config
中设置,如果未传递,则将设置为模型的默认生成配置。 您可以通过将相应的参数传递给 generate() 来覆盖任何 generation_config
,例如 .generate(inputs, num_beams=4, do_sample=True)
。
有关生成策略和代码示例的概述,请查看 以下指南。
SeamlessM4TForSpeechToText
class transformers.SeamlessM4TForSpeechToText
< source >( config: SeamlessM4TConfig )
参数
- config (~SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。
用于 S2TT 的语音到文本 SeamlessM4T 模型转换器。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。
forward
< source >( input_features: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs )
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, sequence_length, num_banks)
) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。 - attention_mask (
torch.FloatTensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充 token 索引上执行注意力的掩码。在[0, 1]
中选择的掩码值:- 1 表示未被掩盖的 token,
- 0 表示被掩盖的 token。
- decoder_input_ids (
torch.LongTensor
,形状为(batch_size, target_sequence_length)
,可选) — 词汇表中解码器输入序列 token 的索引。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
Bart 使用
eos_token_id
作为decoder_input_ids
生成的起始 token。如果使用past_key_values
,则可以选择仅输入最后一个decoder_input_ids
(请参阅past_key_values
)。对于翻译和摘要训练,应提供
decoder_input_ids
。如果未提供decoder_input_ids
,则模型将通过将input_ids
向右移动以进行去噪预训练来创建此张量,遵循论文中的描述。 - decoder_attention_mask (
torch.LongTensor
,形状为(batch_size, target_sequence_length)
,可选) — 默认行为:生成一个张量,该张量忽略decoder_input_ids
中的填充 token。默认情况下也会使用因果掩码。如果您想更改填充行为,则应阅读
modeling_bart._prepare_decoder_attention_mask
并根据您的需要进行修改。有关默认策略的更多信息,请参阅 论文 中的图 1。 - encoder_outputs (
tuple(tuple(torch.FloatTensor)
,可选) — 元组由(last_hidden_state
,可选:hidden_states
,可选:attentions
)组成,其中last_hidden_state
的形状为(batch_size, sequence_length, hidden_size)
,可选) 是编码器最后一层的输出处的隐藏状态序列。在解码器的交叉注意力中使用。 - past_key_values (
tuple(tuple(torch.FloatTensor))
,可选,当传递use_cache=True
或config.use_cache=True
时返回) — 长度为config.n_layers
的tuple(tuple(torch.FloatTensor))
元组,每个元组具有 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)
的张量和 2 个形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)
的额外张量。包含预先计算的隐藏状态(自注意力模块和交叉注意力模块中的键和值),这些状态可用于(请参阅
past_key_values
输入)加速顺序解码。如果使用
past_key_values
,则用户可以选择仅输入最后一个decoder_input_ids
(那些未将其过去的键值状态提供给此模型的)形状为(batch_size, 1)
而不是所有形状为(batch_size, sequence_length)
的decoder_input_ids
。 - inputs_embeds (
torch.FloatTensor
,形状为(batch_size, sequence_length, hidden_size)
,可选) — (可选)您可以选择直接传递嵌入表示,而不是传递input_ids
。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将input_ids
索引转换为关联的向量,这将非常有用。 - decoder_inputs_embeds (
torch.FloatTensor
,形状为(batch_size, target_sequence_length, hidden_size)
,可选) — (可选)您可以选择直接传递嵌入表示,而不是传递decoder_input_ids
。如果使用past_key_values
,则可以选择仅输入最后一个decoder_inputs_embeds
(请参阅past_key_values
)。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将decoder_input_ids
索引转换为关联的向量,这将非常有用。如果
decoder_input_ids
和decoder_inputs_embeds
均未设置,则decoder_inputs_embeds
采用inputs_embeds
的值。 - labels (
torch.LongTensor
,形状为(batch_size, sequence_length)
,可选) — 用于计算掩码语言建模损失的标签。索引应在[-100, 0, ..., config.vocab_size]
中(请参阅input_ids
文档字符串)。索引设置为-100
的 Token 将被忽略(掩码),损失仅针对标签在[0, ..., config.vocab_size]
中的 token 计算 - use_cache (
bool
,可选) — 如果设置为True
,则返回past_key_values
键值状态,并且可以用于加速解码(请参阅past_key_values
)。 - output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回 ModelOutput 而不是普通元组。
SeamlessM4TForSpeechToText 前向方法,覆盖了 __call__
特殊方法。
虽然 forward 传递的配方需要在该函数内定义,但应该在之后调用 Module
实例而不是此函数,因为前者负责处理预处理和后处理步骤,而后者会默默地忽略它们。
generate
< source >( input_features = None tgt_lang = None generation_config = None logits_processor = None stopping_criteria = None prefix_allowed_tokens_fn = None synced_gpus = False **kwargs ) → ModelOutput 或 torch.LongTensor
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, sequence_length, num_banks)
) — 输入音频特征。这应该由 SeamlessM4TFeatureExtractor 类或 SeamlessM4TProcessor 类返回。有关详细信息,请参阅 SeamlessM4TFeatureExtractor.call()。 - tgt_lang (
str
,可选) — 用作翻译目标语言的语言。 - generation_config (
~generation.GenerationConfig
,可选) — 要用作生成调用的基本参数化的生成配置。传递给 generate 的**kwargs
匹配generation_config
的属性将覆盖它们。如果未提供generation_config
,则将使用默认值,该默认值具有以下加载优先级:1) 来自generation_config.json
模型文件(如果存在);2) 来自模型配置。请注意,未指定的参数将继承 GenerationConfig 的默认值,应检查其文档以参数化生成。 - logits_processor (
LogitsProcessorList
,可选) — 自定义 logits 处理器,用于补充从参数和生成配置构建的默认 logits 处理器。如果传递的 logit 处理器已使用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。 - stopping_criteria (
StoppingCriteriaList
,可选) — 自定义停止条件,用于补充从参数和生成配置构建的默认停止条件。如果传递的停止条件已使用参数或生成配置创建,则会抛出错误。此功能适用于高级用户。 - prefix_allowed_tokens_fn (
Callable[[int, torch.Tensor], List[int]]
, 可选) — 如果提供此函数,它将在每一步将束搜索约束为仅允许的 tokens。如果未提供,则不应用约束。此函数接受 2 个参数:批次 IDbatch_id
和input_ids
。它必须返回一个列表,其中包含基于批次 IDbatch_id
和先前生成的 tokensinputs_ids
的下一个生成步骤的允许 tokens。此参数对于基于前缀的约束生成非常有用,如 Autoregressive Entity Retrieval 中所述。 - synced_gpus (
bool
, 可选, 默认为False
) — 是否继续运行 while 循环直到 max_length (ZeRO stage 3 需要) - kwargs (
Dict[str, Any]
, 可选) —generate_config
的特别参数化和/或将转发到模型的forward
函数的其他特定于模型的 kwargs。
返回
ModelOutput 或 torch.LongTensor
ModelOutput(如果 return_dict_in_generate=True
或当 config.return_dict_in_generate=True
时)或 torch.FloatTensor
。 可能的 ModelOutput 类型是
生成 token id 序列。
大多数生成控制参数在 generation_config
中设置,如果未传递,则将设置为模型的默认生成配置。 您可以通过将相应的参数传递给 generate() 来覆盖任何 generation_config
,例如 .generate(inputs, num_beams=4, do_sample=True)
。
有关生成策略和代码示例的概述,请查看 以下指南。
SeamlessM4TConfig
class transformers.SeamlessM4TConfig
< source >( vocab_size = 256102 t2u_vocab_size = 10082 hidden_size = 1024 initializer_range = 0.02 layer_norm_eps = 1e-05 use_cache = True max_position_embeddings = 1024 is_encoder_decoder = True encoder_layerdrop = 0.05 decoder_layerdrop = 0.05 activation_function = 'relu' dropout = 0.1 attention_dropout = 0.1 activation_dropout = 0.0 scale_embedding = True encoder_layers = 24 encoder_ffn_dim = 8192 encoder_attention_heads = 16 decoder_layers = 24 decoder_ffn_dim = 8192 decoder_attention_heads = 16 decoder_start_token_id = 3 max_new_tokens = 256 pad_token_id = 0 bos_token_id = 2 eos_token_id = 3 speech_encoder_layers = 24 speech_encoder_attention_heads = 16 speech_encoder_intermediate_size = 4096 speech_encoder_hidden_act = 'swish' speech_encoder_dropout = 0.0 add_adapter = True speech_encoder_layerdrop = 0.1 feature_projection_input_dim = 160 num_conv_pos_embeddings = 128 num_conv_pos_embedding_groups = 16 adaptor_kernel_size = 8 adaptor_stride = 8 adaptor_dropout = 0.1 num_adapter_layers = 1 position_embeddings_type = 'relative' rotary_embedding_base = 10000 max_source_positions = 4096 conv_depthwise_kernel_size = 31 t2u_bos_token_id = 0 t2u_pad_token_id = 1 t2u_eos_token_id = 2 t2u_decoder_start_token_id = 2 t2u_max_new_tokens = 1024 t2u_encoder_layers = 6 t2u_encoder_ffn_dim = 8192 t2u_encoder_attention_heads = 16 t2u_decoder_layers = 6 t2u_decoder_ffn_dim = 8192 t2u_decoder_attention_heads = 16 t2u_max_position_embeddings = 2048 sampling_rate = 16000 upsample_initial_channel = 512 upsample_rates = [5, 4, 4, 2, 2] upsample_kernel_sizes = [11, 8, 8, 4, 4] resblock_kernel_sizes = [3, 7, 11] resblock_dilation_sizes = [[1, 3, 5], [1, 3, 5], [1, 3, 5]] leaky_relu_slope = 0.1 unit_hifi_gan_vocab_size = 10000 unit_embed_dim = 1280 lang_embed_dim = 256 spkr_embed_dim = 256 vocoder_num_langs = 36 vocoder_num_spkrs = 200 variance_predictor_kernel_size = 3 var_pred_dropout = 0.5 vocoder_offset = 4 **kwargs )
参数
- vocab_size (
int
, 可选, 默认为 256102) — SeamlessM4T 模型的词汇表大小。定义了在调用 ~SeamlessM4TModel, ~SeamlessM4TForTextToSpeech 或 ~SeamlessM4TForTextToText 时,可以通过inputs_ids
传递的不同 tokens 的数量。 - t2u_vocab_size (
int
, 可选, 默认为 10082) — SeamlessM4T 模型的单元词汇表大小。定义了在调用 ~SeamlessM4TModel, ~SeamlessM4TForSpeechToSpeech 或 ~SeamlessM4TForTextToSpeech 的 Text-To-Units 子模型时,可以通过inputs_ids
传递的不同单元 tokens 的数量。
跨子模型共享的参数
- hidden_size (
int
, 可选, 默认为 1024) — 架构中“中间”层的维度。 - initializer_range (
float
, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - layer_norm_eps (
float
, 可选, 默认为 1e-05) — layer normalization 层使用的 epsilon 值。 - use_cache (
bool
, 可选, 默认为True
) — 模型是否应返回最后的 key/values attentions (并非所有模型都使用)。 - max_position_embeddings (
int
, 可选, 默认为 1024) — 此模型文本编码器和解码器可能使用的最大序列长度。通常为了以防万一,将其设置为较大的值(例如,512 或 1024 或 2048)。 - is_encoder_decoder (
bool
, 可选, 默认为True
) — 模型是否用作编码器/解码器。 - encoder_layerdrop (
float
, 可选, 默认为 0.05) — 编码器的 LayerDrop 概率。 有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。 - decoder_layerdrop (
float
, 可选, 默认为 0.05) — 解码器的 LayerDrop 概率。 有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。 - activation_function (
str
或function
, 可选, 默认为"relu"
) — 解码器和前馈层中的非线性激活函数(函数或字符串)。如果为字符串,则支持"gelu"
、"relu"
、"selu"
、"swish"
和"gelu_new"
。 - dropout (
float
, 可选, 默认为 0.1) — 嵌入、编码器、解码器和池化器中所有全连接层的 dropout 概率。 - attention_dropout (
float
, 可选, 默认为 0.1) — 所有 attention 层的 dropout 概率。 - activation_dropout (
float
, optional, defaults to 0.0) — 模型中所有激活层的 dropout 概率。 - scale_embedding (
bool
, optional, defaults toTrue
) — 是否通过除以 sqrt(d_model) 来缩放 embeddings。
文本编码器和文本解码器特定参数
- encoder_layers (
int
, optional, defaults to 24) — Transformer 文本编码器中的隐藏层数。 - encoder_ffn_dim (
int
, optional, defaults to 8192) — Transformer 文本编码器中“中间”(即,前馈)层的维度。 - encoder_attention_heads (
int
, optional, defaults to 16) — Transformer 文本编码器中每个注意力层的注意力头数。 - decoder_layers (
int
, optional, defaults to 24) — Transformer 文本解码器中的隐藏层数。 - decoder_ffn_dim (
int
, optional, defaults to 8192) — Transformer 文本解码器中“中间”(即,前馈)层的维度。 - decoder_attention_heads (
int
, optional, defaults to 16) — Transformer 文本解码器中每个注意力层的注意力头数。 - decoder_start_token_id (
int
, optional, defaults to 3) — 如果编码器-解码器模型以不同于 bos 的 token 开始解码,则为该 token 的 id。仅应用于文本解码器。 - max_new_tokens (
int
, optional, defaults to 256) — 要生成的最大文本 token 数,忽略 prompt 中的 token 数。 - pad_token_id (
int
, optional, defaults to 0) — padding 文本 token 的 id。仅应用于文本解码器模型。 - bos_token_id (
int
, optional, defaults to 2) — beginning-of-stream 文本 token 的 id。仅应用于文本解码器模型。 - eos_token_id (
int
, optional, defaults to 3) — end-of-stream 文本 token 的 id。仅应用于文本解码器模型。
语音编码器特定参数
- speech_encoder_layers (
int
, optional, defaults to 24) — Transformer 语音编码器中的隐藏层数。 - speech_encoder_attention_heads (
int
, optional, defaults to 16) — Transformer 语音编码器中每个注意力层的注意力头数。 - speech_encoder_intermediate_size (
int
, optional, defaults to 4096) — Transformer 语音编码器中“中间”(即,前馈)层的维度。 - speech_encoder_hidden_act (
str
orfunction
, optional, defaults to"swish"
) — 语音编码器中的非线性激活函数(函数或字符串)。如果为字符串,则支持"gelu"
、"relu"
、"selu"
、"swish"
和"gelu_new"
。 - speech_encoder_dropout (
float
, optional, defaults to 0.0) — 语音编码器中所有层的 dropout 概率。 - add_adapter (
bool
, optional, defaults toTrue
) — 是否在语音编码器之上添加一个 adapter 层。 - speech_encoder_layerdrop (
float
, optional, defaults to 0.1) — 语音编码器的 LayerDrop 概率。有关更多详细信息,请参阅 [LayerDrop 论文](see https://arxiv.org/abs/1909.11556)。 - feature_projection_input_dim (
int
, optional, defaults to 160) — 语音编码器的输入特征投影的输入维度,即使用 SeamlessM4TFeatureExtractor 处理输入音频后的维度。 - num_conv_pos_embeddings (
int
, optional, defaults to 128) — 卷积位置 embeddings 的数量。定义语音编码器的 1D 卷积位置 embeddings 层的内核大小。 - num_conv_pos_embedding_groups (
int
, optional, defaults to 16) — 语音编码器的 1D 卷积位置 embeddings 层的组数。 - adaptor_kernel_size (
int
, optional, defaults to 8) — adapter 网络中卷积层的内核大小。仅当add_adapter is True
时相关。 - adaptor_stride (
int
, optional, defaults to 8) — adapter 网络中卷积层的步幅。仅当add_adapter is True
时相关。 - adaptor_dropout (
float
, optional, defaults to 0.1) — 语音 adapter 中所有层的 dropout 概率。 - num_adapter_layers (
int
, optional, defaults to 1) — adapter 网络中应使用的卷积层数。仅当add_adapter is True
时相关。 - position_embeddings_type (
str
, 可选, 默认为"relative"
) — 可以指定为relative
或rotary
分别用于相对位置嵌入或旋转位置嵌入。如果留空None
,则不应用相对位置嵌入。仅应用于语音编码器。 - rotary_embedding_base (
int
, 可选, 默认为 10000) — 如果使用"rotary"
位置嵌入,则定义嵌入基的大小。仅应用于语音编码器。 - max_source_positions (
int
, 可选, 默认为 4096) — 如果使用"relative"
位置嵌入,则定义最大源输入位置数。仅应用于语音编码器。 - conv_depthwise_kernel_size (
int
, 可选, 默认为 31) — Conformer 模块中卷积深度可分离 1D 层的内核大小。仅应用于语音编码器。
Text-To-Unit (t2u) 模型特定参数
- t2u_bos_token_id (
int
, 可选, 默认为 0) — 流开始单元 token 的 id。仅应用于文本到单元 seq2seq 模型。 - t2u_pad_token_id (
int
, 可选, 默认为 1) — 填充单元 token 的 id。仅应用于文本到单元 seq2seq 模型。 - t2u_eos_token_id (
int
, 可选, 默认为 2) — 流结束单元 token 的 id。仅应用于文本到单元 seq2seq 模型。 - t2u_decoder_start_token_id (
int
, 可选, 默认为 2) — 如果编码器-解码器模型使用与 bos 不同的 token 开始解码,则为该 token 的 id。仅应用于文本到单元 seq2seq 模型。 - t2u_max_new_tokens (
int
, 可选, 默认为 1024) — 要生成的单元 token 的最大数量,忽略 prompt 中的 token 数量。仅应用于文本到单元 seq2seq 模型。 - t2u_encoder_layers (
int
, 可选, 默认为 6) — Transformer 文本到单元编码器中的隐藏层数。 - t2u_encoder_ffn_dim (
int
, 可选, 默认为 8192) — Transformer 文本到单元编码器中“中间”(即,前馈)层的维度。 - t2u_encoder_attention_heads (
int
, 可选, 默认为 16) — Transformer 文本到单元编码器中每个注意力层的注意力头数。 - t2u_decoder_layers (
int
, 可选, 默认为 6) — Transformer 文本到单元解码器中的隐藏层数。 - t2u_decoder_ffn_dim (
int
, 可选, 默认为 8192) — Transformer 文本到单元解码器中“中间”(即,前馈)层的维度。 - t2u_decoder_attention_heads (
int
, 可选, 默认为 16) — Transformer 文本到单元解码器中每个注意力层的注意力头数。 - t2u_max_position_embeddings (
int
, 可选, 默认为 2048) — 此模型文本到单元组件可能使用的最大序列长度。通常设置为较大的值以防万一(例如,512 或 1024 或 2048)。Hifi-Gan 声码器特定参数
- sampling_rate (
int
, 可选, 默认为 16000) — 输出音频将被生成的采样率,以赫兹 (Hz) 表示。 - upsample_initial_channel (
int
, 可选, 默认为 512) — 进入 hifi-gan 上采样网络的输入通道数。仅应用于声码器。 - upsample_rates (
Tuple[int]
或List[int]
, 可选, 默认为[5, 4, 4, 2, 2]
) — 定义声码器上采样网络中每个 1D 卷积层步幅的整数元组。upsample_rates 的长度定义了卷积层的数量,并且必须与 upsample_kernel_sizes 的长度匹配。仅应用于声码器。 - upsample_kernel_sizes (
Tuple[int]
或List[int]
, 可选, 默认为[11, 8, 8, 4, 4]
) — 定义声码器上采样网络中每个 1D 卷积层内核大小的整数元组。upsample_kernel_sizes 的长度定义了卷积层的数量,并且必须与 upsample_rates 的长度匹配。仅应用于声码器。 - resblock_kernel_sizes (
Tuple[int]
或List[int]
, 可选, 默认为[3, 7, 11]
) — 定义声码器多感受野融合 (MRF) 模块中 1D 卷积层内核大小的整数元组。仅应用于声码器。 - resblock_dilation_sizes (
Tuple[Tuple[int]]
或List[List[int]]
, 可选, 默认为[[1, 3, 5], [1, 3, 5], [1, 3, 5]]
) — 定义声码器多感受野融合 (MRF) 模块中扩张的 1D 卷积层扩张率的嵌套整数元组。仅应用于声码器。 - leaky_relu_slope (
float
, 可选, 默认为 0.1) — 声码器中 leaky ReLU 激活函数使用的负斜率角度。仅应用于声码器。 - unit_hifi_gan_vocab_size (
int
, 可选, 默认为 10000) — SeamlessM4T 声码器的词汇表大小。定义了在调用 ~SeamlessM4TModel、~SeamlessM4TForSpeechToSpeech 或 ~SeamlessM4TForTextToSpeech 的声码器时传递的inputs_ids
可以表示的不同单元 token 的数量。 - unit_embed_dim (
int
, 可选, 默认为 1280) — 给定 hifi-gan 声码器的输入 id 的投影维度。仅应用于声码器。 - lang_embed_dim (
int
, 可选, 默认为 256) — 给定 hifi-gan 声码器的目标语言的投影维度。仅应用于声码器。 - spkr_embed_dim (
int
, 可选, 默认为 256) — 给定 hifi-gan 声码器的说话人 id 的投影维度。仅应用于声码器。 - vocoder_num_langs (
int
, 可选, 默认为 36) — 声码器支持的语言数量。可能与t2u_num_langs
不同。 - vocoder_num_spkrs (
int
, 可选, 默认为 200) — 声码器支持的说话人数量。 - variance_predictor_kernel_size (
int
, 可选, 默认为 3) — 持续时间预测器的内核大小。仅应用于声码器。 - var_pred_dropout (
float
, 可选, 默认为 0.5) — 时长预测器的 dropout 概率。仅应用于声码器。 - vocoder_offset (
int
, 可选, 默认为 4) — 单元 token id 的偏移量,用于考虑符号 token。仅应用于声码器。
这是用于存储 ~SeamlessM4TModel 配置的配置类。 它用于根据指定的参数实例化 SeamlessM4T 模型,定义模型架构。 使用默认值实例化配置将产生与 SeamlessM4T “facebook/hf-seamless-m4t-medium” 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。 有关更多信息,请阅读 PretrainedConfig 的文档。
>>> from transformers import SeamlessM4TModel, SeamlessM4TConfig
>>> # Initializing a SeamlessM4T "facebook/hf-seamless-m4t-medium" style configuration
>>> configuration = SeamlessM4TConfig()
>>> # Initializing a model from the "facebook/hf-seamless-m4t-medium" style configuration
>>> model = SeamlessM4TModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
SeamlessM4TTokenizer
class transformers.SeamlessM4TTokenizer
< source >( vocab_file bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' tokenizer_file = None src_lang = 'eng' tgt_lang = 'fra' sp_model_kwargs: Optional = None additional_special_tokens = None add_prefix_space = True **kwargs )
参数
- vocab_file (
str
) — 词汇表文件的路径。 - bos_token (
str
, 可选, 默认为"<s>"
) — 序列开始 token,在预训练期间使用。 可以用作序列分类器 token。当使用特殊 token 构建序列时,这不是用于序列开始的 token。 使用的 token 是
cls_token
。 - eos_token (
str
, 可选, 默认为"</s>"
) — 序列结束 token。当使用特殊 token 构建序列时,这不是用于序列结束的 token。 使用的 token 是
sep_token
。 - sep_token (
str
, 可选, 默认为"</s>"
) — 分隔符 token,用于从多个序列构建序列时,例如用于序列分类的两个序列,或用于问答的文本和问题。 它也用作使用特殊 token 构建的序列的最后一个 token。 - cls_token (
str
, 可选, 默认为"<s>"
) — 分类器 token,用于进行序列分类(对整个序列而不是每个 token 进行分类)。 当使用特殊 token 构建时,它是序列的第一个 token。 - unk_token (
str
, 可选, 默认为"<unk>"
) — 未知 token。 词汇表中不存在的 token 无法转换为 ID,并将设置为此 token。 - pad_token (
str
, 可选, 默认为"<pad>"
) — 用于填充的 token,例如在对不同长度的序列进行批处理时。 - tokenizer_file (
str
, 可选) — 用于代替词汇表文件的 tokenizer 文件的路径。 - src_lang (
str
, 可选, 默认为"eng"
) — 用作翻译源语言的语言。 - tgt_lang (
str
, 可选, 默认为"fra"
) — 用作翻译目标语言的语言。 - sp_model_kwargs (
Dict[str, Any]
, 可选) — 传递给模型初始化的其他关键字参数。 - additional_special_tokens (tuple 或 list of
str
或tokenizers.AddedToken
, 可选) — 额外的特殊 token 的元组或列表。 可用于指定 tokenizer 将支持的语言列表。 - add_prefix_space (
bool
, 可选, 默认为True
) — 是否在输入中添加初始空格。 这允许将开头的单词与任何其他单词一样对待。
构建 SeamlessM4T tokenizer。
改编自 RobertaTokenizer 和 XLNetTokenizer。 基于 SentencePiece。
对于源语言文档,tokenization 方法是 <language code> <tokens> <eos>
,对于目标语言文档,tokenization 方法是 <eos> <language code> <tokens> <eos>
。
示例
>>> from transformers import SeamlessM4TTokenizer
>>> tokenizer = SeamlessM4TTokenizer.from_pretrained(
... "facebook/hf-seamless-m4t-medium", src_lang="eng", tgt_lang="fra"
... )
>>> example_english_phrase = " UN Chief Says There Is No Military Solution in Syria"
>>> expected_translation_french = "Le chef de l'ONU affirme qu'il n'y a pas de solution militaire en Syrie."
>>> inputs = tokenizer(example_english_phrase, text_target=expected_translation_french, return_tensors="pt")
__call__
< source >( text: Union = None text_pair: Union = None text_target: Union = None text_pair_target: Union = None padding: Union = True pad_to_multiple_of: Optional = 2 src_lang: Optional = None tgt_lang: Optional = None **kwargs )
参数
- text (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。 每个序列可以是字符串或字符串列表(预token化字符串)。 如果序列以字符串列表(预token化)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_pair (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。 每个序列可以是字符串或字符串列表(预token化字符串)。 如果序列以字符串列表(预token化)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。 每个序列可以是字符串或字符串列表(预token化字符串)。 如果序列以字符串列表(预token化)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_pair_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。 每个序列可以是字符串或字符串列表(预token化字符串)。 如果序列以字符串列表(预token化)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - padding (
bool
,str
或 PaddingStrategy, 可选, 默认为True
) — 选择一种策略来填充返回的序列(根据模型的填充侧和填充索引),选项如下:True
或'longest'
: 填充到批次中最长的序列(如果仅提供单个序列,则不填充)。'max_length'
: 填充到使用参数max_length
指定的最大长度,或者如果未提供该参数,则填充到模型可接受的最大输入长度。False
或'do_not_pad'
(默认): 不填充(即,可以输出具有不同长度序列的批次)。
- pad_to_multiple_of (
int
, 可选) — 如果设置,将会把序列填充为提供值的倍数。这对于在计算能力
>= 7.5
(Volta) 的 NVIDIA 硬件上启用 Tensor Core 非常有用。 - src_lang (
str
, 可选) — 代表源语言的字符串。如果未指定,将使用上次指定的src_lang
(在初始化期间或调用此 tokenizer 时)。 - tgt_lang (
str
, 可选) — 代表目标语言的字符串。如果未指定,将使用上次指定的tgt_lang
(在初始化期间或调用此 tokenizer 时)。 - kwargs (可选) — 将传递给 PreTrainedTokenizer.call() 的剩余关键字参数字典。
build_inputs_with_special_tokens
< source >( token_ids_0: List token_ids_1: Optional = None ) → List[int]
通过连接和添加特殊 token,从序列或序列对构建模型输入,用于序列分类任务。 NLLB 序列具有以下格式,其中 X
代表序列
input_ids
(对于编码器)X [eos, src_lang_code]
decoder_input_ids
: (对于解码器)X [eos, tgt_lang_code]
永远不会使用 BOS。序列对不是预期的用例,但会处理它们,无需分隔符。
get_special_tokens_mask
< source >( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) → List[int]
从没有添加特殊 token 的 token 列表中检索序列 ID。 当使用 tokenizer prepare_for_model
方法添加特殊 token 时,会调用此方法。
create_token_type_ids_from_sequences
< source >( token_ids_0: List token_ids_1: Optional = None ) → List[int]
从传递的两个序列创建 mask,用于序列对分类任务。 nllb 不使用 token 类型 ID,因此返回零列表。
SeamlessM4TTokenizerFast
class transformers.SeamlessM4TTokenizerFast
< source >( vocab_file = None tokenizer_file = None bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' src_lang = 'eng' tgt_lang = 'fra' additional_special_tokens = None **kwargs )
参数
- vocab_file (
str
, 可选) — 词汇表文件的路径。 - tokenizer_file (
str
, 可选) — tokenizer 文件的路径,用于替代词汇表文件。 - bos_token (
str
, 可选, 默认为"<s>"
) — 在预训练期间使用的序列开始 token。可以用作序列分类器 token。当使用特殊 token 构建序列时,这不是用于序列开始的 token。使用的 token 是
cls_token
。 - eos_token (
str
, 可选, 默认为"</s>"
) — 序列结束 token。当使用特殊 token 构建序列时,这不是用于序列结束的 token。使用的 token 是
sep_token
。 - sep_token (
str
, 可选, 默认为"</s>"
) — 分隔符 token,当从多个序列构建一个序列时使用,例如用于序列分类的两个序列,或者用于问答的文本和问题。它也用作使用特殊 token 构建的序列的最后一个 token。 - cls_token (
str
, 可选, 默认为"<s>"
) — 分类器 token,用于进行序列分类(对整个序列而不是每个 token 进行分类)。当使用特殊 token 构建时,它是序列的第一个 token。 - unk_token (
str
, 可选, 默认为"<unk>"
) — 未知 token。词汇表中没有的 token 无法转换为 ID,而是设置为此 token。 - pad_token (
str
, 可选, 默认为"<pad>"
) — 用于填充的 token,例如在对不同长度的序列进行批处理时。 - src_lang (
str
, 可选, 默认为"eng"
) — 用作翻译源语言的语言。 - tgt_lang (
str
, 可选, 默认为"fra"
) — 用作翻译目标语言的语言。 - additional_special_tokens (tuple 或 list of
str
或tokenizers.AddedToken
, 可选) — 附加的特殊 token 的 tuple 或 list。
构建一个“快速” SeamlessM4T tokenizer (由 HuggingFace 的 tokenizers 库支持)。 基于 BPE。
此 tokenizer 继承自 PreTrainedTokenizerFast,其中包含大多数主要方法。 用户应参考此超类以获取有关这些方法的更多信息。
对于源语言文档,tokenization 方法是 <language code> <tokens> <eos>
,对于目标语言文档,tokenization 方法是 <eos> <language code> <tokens> <eos>
。
示例
>>> from transformers import SeamlessM4TTokenizerFast
>>> tokenizer = SeamlessM4TTokenizerFast.from_pretrained(
... "facebook/hf-seamless-m4t-medium", src_lang="eng", tgt_lang="fra"
... )
>>> example_english_phrase = " UN Chief Says There Is No Military Solution in Syria"
>>> expected_translation_french = "Le chef de l'ONU affirme qu'il n'y a pas de solution militaire en Syrie."
>>> inputs = tokenizer(example_english_phrase, text_target=expected_translation_french, return_tensors="pt")
__call__
< source >( text: Union = None text_pair: Union = None text_target: Union = None text_pair_target: Union = None padding: Union = True pad_to_multiple_of: Optional = 2 src_lang: Optional = None tgt_lang: Optional = None **kwargs )
参数
- text (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列以字符串列表(预分词)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_pair (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列以字符串列表(预分词)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列以字符串列表(预分词)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - text_pair_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列以字符串列表(预分词)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - padding (
bool
,str
或 PaddingStrategy, 可选, 默认为True
) — 选择一种策略来填充返回的序列(根据模型的填充侧和填充索引):True
或'longest'
: 填充到批次中最长的序列(如果仅提供单个序列,则不填充)。'max_length'
: 填充到通过参数max_length
指定的最大长度,如果未提供该参数,则填充到模型可接受的最大输入长度。False
或'do_not_pad'
(默认): 不填充(即,可以输出具有不同长度序列的批次)。
- pad_to_multiple_of (
int
, 可选) — 如果设置,将序列填充为提供值的倍数。这对于在计算能力
>= 7.5
(Volta) 的 NVIDIA 硬件上启用 Tensor Core 的使用特别有用。 - src_lang (
str
, 可选) — 表示源语言的字符串。 如果未指定,将使用上次指定的src_lang
(在初始化期间或调用此 tokenizer 时指定)。 - tgt_lang (
str
, 可选) — 表示目标语言的字符串。 如果未指定,将使用上次指定的tgt_lang
(在初始化期间或调用此 tokenizer 时指定)。 - kwargs (可选) — 将传递给 PreTrainedTokenizerFast.call() 的剩余关键字参数字典。
SeamlessM4TFeatureExtractor
class transformers.SeamlessM4TFeatureExtractor
< source >( feature_size = 80 sampling_rate = 16000 num_mel_bins = 80 padding_value = 0.0 stride = 2 **kwargs )
参数
- feature_size (
int
, 可选, 默认为 80) — 提取特征的特征维度。 - sampling_rate (
int
, 可选, 默认为 16000) — 音频文件应数字化的采样率,以赫兹 (Hz) 表示。 - num_mel_bins (
int
, 可选, 默认为 80) — Mel 频率 bin 的数量。 - padding_value (
float
, 可选, 默认为 0.0) — 用于填充填充向量的值。 - stride (
int
, 可选, 默认为 2) — 用于将音频从形状 (batch_size,num_frames,num_mel_bins) 重塑为 (batch_size,num_frames//stride,num_mel_bins*stride) 的步幅。
构建 SeamlessM4T 特征提取器。
此特征提取器继承自 SequenceFeatureExtractor,其中包含大多数主要方法。 用户应参考此超类以获取有关这些方法的更多信息。
此类从原始语音中提取 mel 滤波器组特征。
__call__
< source >( raw_speech: Union padding: Union = True pad_to_multiple_of: Optional = 2 max_length: Optional = None truncation: bool = False return_tensors: Union = None sampling_rate: Optional = None return_attention_mask: Optional = None do_normalize_per_mel_bins: Optional = True **kwargs )
参数
- raw_speech (
np.ndarray
,torch.Tensor
,List[float]
,List[np.ndarray]
,List[torch.Tensor]
, — -
List[List[float]]
,List[List[List[float]]]
) — 要填充的序列或序列批次。每个序列可以是 numpy 数组、torch 张量、浮点值列表、numpy 数组列表、torch 张量列表、浮点值列表的列表或浮点值列表的列表的列表。如果raw_speech
是一维np.ndarray
、torch.Tensor
或List[float]
,则raw_speech
被视为单声道、单样本声音。在所有其他情况下,raw_speech
的第一维度(无论是来自np.ndarray
、torch.Tensor
还是List[...]
)都对应于批次中的样本数,并且通道数(即单声道或立体声特性)从其他维度(1D -> 单声道波形批次;2D-> 立体声波形批次)派生而来。 - padding (
bool
,str
或 PaddingStrategy, 可选, 默认为True
) — 选择一种策略来填充返回的序列(根据模型的填充侧和填充索引):True
或'longest'
: 填充到批次中最长的序列(如果仅提供单个序列,则不填充)。'max_length'
: 填充到通过参数max_length
指定的最大长度,如果未提供该参数,则填充到模型可接受的最大输入长度。False
或'do_not_pad'
(默认): 不填充(即,可以输出具有不同长度序列的批次)。
- pad_to_multiple_of (
int
, 可选, 默认为 2) — 如果设置,将序列填充为提供值的倍数。这对于在计算能力
>= 7.5
(Volta) 的 NVIDIA 硬件上启用 Tensor Core 的使用特别有用,或者在 TPU 上使用,这有利于序列长度为 128 的倍数。 - max_length (
int
, 可选) — 返回列表的最大长度以及可选的填充长度(见上文)。 - truncation (
bool
) — 激活截断以裁剪输入序列,使其长度不超过 max_length 设定的最大长度。 - return_attention_mask (
bool
, optional) — 是否返回 attention mask。如果保留默认值,将根据特定 feature_extractor 的默认值返回 attention mask。对于 SeamlessM4T 模型,为了避免细微的错误,批量推理时应始终传递
attention_mask
。 - return_tensors (
str
或 TensorType, optional) — 如果设置,将返回 tensors 而不是 python 整数列表。可接受的值为:'tf'
: 返回 TensorFlowtf.constant
对象。'pt'
: 返回 PyTorchtorch.Tensor
对象。'np'
: 返回 Numpynp.ndarray
对象。
- sampling_rate (
int
, optional) —raw_speech
输入被采样的采样率。强烈建议在前向调用时传递sampling_rate
,以防止静默错误。 - do_normalize_per_mel_bins (
bool
, optional, defaults toTrue
) — 是否对每个 mel 频道进行零均值单位方差归一化。 - kwargs (optional) — 剩余的关键字参数字典,将传递给 tokenizer 或 feature extractor。
featurize 和准备一个或多个序列以供模型使用的主要方法。
SeamlessM4TProcessor
class transformers.SeamlessM4TProcessor
< source >( feature_extractor tokenizer )
参数
- feature_extractor (SeamlessM4TFeatureExtractor) — 音频处理器是必需的输入。
- tokenizer (SeamlessM4TTokenizerFast) — tokenizer 是必需的输入。
构建一个 SeamlessM4T processor,它将 SeamlessM4T feature extractor 和 SeamlessM4T tokenizer 封装到一个单独的 processor 中。
SeamlessM4TProcessor 提供了 SeamlessM4TFeatureExtractor 和 SeamlessM4TTokenizerFast 的所有功能。有关更多信息,请参阅 call() 和 decode()
。
__call__
< source >( text = None audios = None src_lang = None tgt_lang = None **kwargs ) → BatchEncoding
参数
- text (
str
,List[str]
,List[List[str]]
) — 要编码的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列以字符串列表(预分词)形式提供,则必须设置is_split_into_words=True
(以消除与序列批次的歧义)。 - audios (
np.ndarray
,torch.Tensor
,List[np.ndarray]
,List[torch.Tensor]
) — 要准备的音频或音频批次。每个音频可以是 NumPy 数组或 PyTorch 张量。如果是 NumPy 数组/PyTorch 张量,则每个音频的形状应为 (C, T),其中 C 是通道数,T 是音频的样本长度。 - src_lang (
str
, optional) — 输入文本/音频的语言代码。如果未指定,将使用上次指定的src_lang
。 - tgt_lang (
str
, optional) — 目标语言的代码。如果未指定,将使用上次指定的tgt_lang
。 - kwargs (optional) — 剩余的关键字参数字典,将传递给 feature extractor 和/或 tokenizer。
一个 BatchEncoding,包含以下字段
- input_ids — 要输入到模型的 token ids 列表。当
text
不是None
时返回。 - attention_mask — 指定模型应注意哪些 token 的索引列表(当
return_attention_mask=True
或如果 “attention_mask” 在self.model_input_names
中且text
不是None
时)。 - input_features — 要输入到模型的音频输入特征。当
audios
不是None
时返回。
准备一个或多个序列和音频以供模型使用的主要方法。如果 text
不是 None
,此方法将 text
和 kwargs
参数转发到 SeamlessM4TTokenizerFast 的 call() 以编码文本。要准备音频,如果 audios
不是 None
,此方法将 audios
和 kwrags
参数转发到 SeamlessM4TFeatureExtractor 的 call()。有关更多信息,请参阅上述两种方法的文档字符串。
SeamlessM4TCodeHifiGan
class transformers.SeamlessM4TCodeHifiGan
< source >( config )
参数
- config (SeamlessM4TConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法加载模型权重。
此 repository 中描述的 Code HiFi-GAN 声码器。此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。
forward
< source >( input_ids: LongTensor spkr_id: Tensor lang_id: Tensor )
参数
- input_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
) — 词汇表中输入序列 token 的索引。可以使用 SeamlessM4TTextToUnitForConditionalGeneration 获取索引。什么是输入 IDs?
- spkr_id (
int
, optional) — 用于语音合成的说话人 ID。必须小于config.vocoder_num_spkrs
。 - tgt_lang (
str
, optional) — 用作翻译目标语言的语言 ID。
SeamlessM4THifiGan
forward
< source >( input_embeds: FloatTensor ) → torch.FloatTensor
参数
- spectrogram (
torch.FloatTensor
) — 包含 log-mel 频谱图的张量。可以是批量的,形状为(batch_size, sequence_length, model_in_dim)
,也可以是非批量的,形状为(sequence_length, model_in_dim)
。请注意,model_in_dim
是config.unit_embed_dim
、config.lang_embed_dim
和config.spkr_embed_dim
的总和。
返回
torch.FloatTensor
包含语音波形的张量。如果输入频谱图是批量的,则形状为 (batch_size, num_frames,)
。如果非批量的,则形状为 (num_frames,)
。
将 log-mel 频谱图转换为语音波形。传递一批 log-mel 频谱图会返回一批语音波形。传递单个、非批量的 log-mel 频谱图会返回单个、非批量的语音波形。
SeamlessM4TTextToUnitModel
类 transformers.SeamlessM4TTextToUnitModel
< 源代码 >( config: SeamlessM4TConfig embed_tokens_decoder: Optional = None )
参数
- config (~SeamlessM4TConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。
- embed_tokens_decoder (
nn.Embedding
, *可选*) — 解码器的输入 embedding。
Transformer 裸文本到单元编码器-解码器。编码器是一个没有 embedding 的 SeamlessM4TEncoder
,解码器是一个 SeamlessM4TDecoder
。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch Module,并参考 PyTorch 文档以了解与常规用法和行为相关的所有事项。
SeamlessM4TTextToUnitForConditionalGeneration
类 transformers.SeamlessM4TTextToUnitForConditionalGeneration
< 源代码 >( config: SeamlessM4TConfig embed_tokens_decoder: Optional = None )
Transformer 文本到单元编码器-解码器,带有一个语言模型头。基础编码器-解码器模型是 SeamlessM4TTextToUnit
。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch Module,并参考 PyTorch 文档以了解与常规用法和行为相关的所有事项。
forward
< 源代码 > ( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None encoder_outputs: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None )
参数
- input_ids (形状为
(batch_size, sequence_length)
的torch.LongTensor
,*可选*) — 词汇表中输入序列 token 的索引。可以使用 SeamlessM4TTokenizer 或 SeamlessM4TProcessor 获取索引。 请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 以了解详情。
- attention_mask (形状为
(batch_size, sequence_length)
的torch.FloatTensor
,*可选*) — 用于避免对 padding token 索引执行 attention 的 mask。 Mask 值在[0, 1]
中选择:- 1 表示未被 mask 的 token,
- 0 表示被 mask 的 token。
- decoder_input_ids (形状为
(batch_size, target_sequence_length)
的torch.LongTensor
,*可选*) — 词汇表中解码器输入序列 token 的索引。可以使用 AutoTokenizer 获取索引。 请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 以了解详情。
Bart 使用
eos_token_id
作为decoder_input_ids
生成的起始 token。 如果使用past_key_values
,则可以选择仅输入最后一次的decoder_input_ids
(请参阅past_key_values
)。对于翻译和摘要训练,应提供
decoder_input_ids
。 如果未提供decoder_input_ids
,则模型将通过将input_ids
向右移动来创建此 tensor,以进行遵循论文的去噪预训练。 - decoder_attention_mask (形状为
(batch_size, target_sequence_length)
的torch.LongTensor
,*可选*) — 默认行为:生成一个 tensor,该 tensor 忽略decoder_input_ids
中的 pad token。 默认情况下也将使用因果 mask。如果您想更改 padding 行为,则应阅读
modeling_bart._prepare_decoder_attention_mask
并根据您的需求进行修改。 有关默认策略的更多信息,请参见 论文 中的图 1。 - encoder_outputs (
tuple(tuple(torch.FloatTensor)
,*可选*) — 元组由 (last_hidden_state
,*可选*:hidden_states
,*可选*:attentions
) 组成,last_hidden_state
的形状为(batch_size, sequence_length, hidden_size)
,*可选*) 是编码器最后一层的输出 hidden-state 序列。 在解码器的 cross-attention 中使用。 - past_key_values (
tuple(tuple(torch.FloatTensor))
,*可选*,当传递use_cache=True
或config.use_cache=True
时返回) — 长度为config.n_layers
的tuple(torch.FloatTensor)
元组,其中每个元组都有 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)
的 tensor 和 2 个形状为(batch_size, num_heads, encoder_sequence_length, embed_size_per_head)
的附加 tensor。包含预计算的 hidden-state(自 attention 块和 cross-attention 块中的 key 和 value),可用于(请参阅
past_key_values
输入)加速顺序解码。如果使用
past_key_values
,则可以选择仅输入最后一次的decoder_input_ids
(那些没有将其过去的 key value 状态提供给此模型的)形状为(batch_size, 1)
,而不是所有形状为(batch_size, sequence_length)
的decoder_input_ids
。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
,*可选*) — (可选)您可以选择直接传递 embedding 表示,而不是传递input_ids
。 如果您想更好地控制如何将input_ids
索引转换为关联的向量,而不是模型的内部 embedding 查找矩阵,这将非常有用。 - decoder_inputs_embeds (形状为
(batch_size, target_sequence_length, hidden_size)
的torch.FloatTensor
,*可选*) — (可选)您可以选择直接传递 embedding 表示,而不是传递decoder_input_ids
。 如果使用past_key_values
,则可以选择仅输入最后一次的decoder_inputs_embeds
(那些没有将其过去的 key value 状态提供给此模型的)。 如果您想更好地控制如何将decoder_input_ids
索引转换为关联的向量,而不是模型的内部 embedding 查找矩阵,这将非常有用。如果
decoder_input_ids
和decoder_inputs_embeds
均未设置,则decoder_inputs_embeds
采用inputs_embeds
的值。 - labels (形状为
(batch_size, sequence_length)
的torch.LongTensor
,*可选*) — 用于计算 masked language modeling 损失的 labels。 索引应在[-100, 0, ..., config.vocab_size]
中(请参阅input_ids
文档字符串)。 索引设置为-100
的 token 将被忽略(masked),损失仅针对 labels 在[0, ..., config.vocab_size]
中的 token 计算。 - use_cache (
bool
,*可选*) — 如果设置为True
,则返回past_key_values
key value 状态,并且可以用于加速解码(请参阅past_key_values
)。 - output_attentions (
bool
,*可选*) — 是否返回所有 attention 层的 attentions tensor。 有关更多详细信息,请参见返回的 tensor 下的attentions
。 - output_hidden_states (
bool
,*可选*) — 是否返回所有层的 hidden state。 有关更多详细信息,请参见返回的 tensor 下的hidden_states
。 - return_dict (
bool
, 可选的) — 是否返回 ModelOutput 而不是一个普通的元组。
SeamlessM4TTextToUnitForConditionalGeneration 的 forward
方法,重写了 __call__
特殊方法。
虽然 forward 传递的配方需要在该函数内定义,但应该在之后调用 Module
实例而不是此函数,因为前者负责处理预处理和后处理步骤,而后者会默默地忽略它们。