Transformers 文档
mBART
并获得增强的文档体验
开始使用
该模型于 2020-01-22 发布,并于 2020-11-16 添加到 Hugging Face Transformers。
mBART
mBART 是一个多语言机器翻译模型,它对整个翻译模型(编码器-解码器)进行预训练,这与之前只关注模型部分的方法不同。该模型通过去噪目标进行训练,该目标会重构损坏的文本。这使得 mBART 能够处理源语言和目标文本以进行翻译。
mBART-50 在另外 25 种语言上进行了预训练。
您可以在 AI at Meta 组织下找到所有原始的 mBART 检查点。
单击侧边栏右侧的 mBART 模型,以获取将 mBART 应用于不同语言任务的更多示例。
下面的示例演示了如何使用 Pipeline 或 AutoModel 类进行文本翻译。
import torch
from transformers import pipeline
pipeline = pipeline(
task="translation",
model="facebook/mbart-large-50-many-to-many-mmt",
device=0,
dtype=torch.float16,
src_lang="en_XX",
tgt_lang="fr_XX",
)
print(pipeline("UN Chief Says There Is No Military Solution in Syria"))注意事项
您可以通过
tokenizer.lang_code_to_id.keys()检查语言代码的完整列表。mBART 在训练期间需要在源文本和目标文本中使用特殊的语言 ID 标记。源文本格式为
X [eos, src_lang_code],其中X是源文本。目标文本格式为[tgt_lang_code] X [eos]。bos标记从不使用。~PreTrainedTokenizerBase._call_会对作为第一个参数或使用text关键字传入的源文本格式进行编码。目标文本格式通过text_label关键字传入。将
decoder_start_token_id设置为 mBART 的目标语言 ID。import torch from transformers import AutoModelForSeq2SeqLM, AutoTokenizer model = AutoModelForSeq2SeqLM.from_pretrained("facebook/mbart-large-en-ro", dtype=torch.bfloat16, attn_implementation="sdpa", device_map="auto") tokenizer = MBartTokenizer.from_pretrained("facebook/mbart-large-en-ro", src_lang="en_XX") article = "UN Chief Says There Is No Military Solution in Syria" inputs = tokenizer(article, return_tensors="pt") translated_tokens = model.generate(**inputs, decoder_start_token_id=tokenizer.lang_code_to_id["ro_RO"]) tokenizer.batch_decode(translated_tokens, skip_special_tokens=True)[0]mBART-50 具有不同的文本格式。语言 ID 标记用作源文本和目标文本的前缀。文本格式为
[lang_code] X [eos],其中lang_code是源文本的源语言 ID,以及目标文本的目标语言 ID。X分别是源文本或目标文本。将
eos_token_id设置为 mBART-50 的decoder_start_token_id。目标语言 ID 用作生成的第一个标记,方法是将forced_bos_token_id传递给 generate()。import torch from transformers import AutoModelForSeq2SeqLM, AutoTokenizer model = AutoModelForSeq2SeqLM.from_pretrained("facebook/mbart-large-50-many-to-many-mmt", dtype=torch.bfloat16, attn_implementation="sdpa", device_map="auto") tokenizer = MBartTokenizer.from_pretrained("facebook/mbart-large-50-many-to-many-mmt") article_ar = "الأمين العام للأمم المتحدة يقول إنه لا يوجد حل عسكري في سوريا." tokenizer.src_lang = "ar_AR" encoded_ar = tokenizer(article_ar, return_tensors="pt") generated_tokens = model.generate(**encoded_ar, forced_bos_token_id=tokenizer.lang_code_to_id["en_XX"]) tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
MBartConfig
class transformers.MBartConfig
< source >( vocab_size = 50265 max_position_embeddings = 1024 encoder_layers = 12 encoder_ffn_dim = 4096 encoder_attention_heads = 16 decoder_layers = 12 decoder_ffn_dim = 4096 decoder_attention_heads = 16 encoder_layerdrop = 0.0 decoder_layerdrop = 0.0 use_cache = True is_encoder_decoder = True activation_function = 'gelu' d_model = 1024 dropout = 0.1 attention_dropout = 0.0 activation_dropout = 0.0 init_std = 0.02 classifier_dropout = 0.0 scale_embedding = False pad_token_id = 1 bos_token_id = 0 eos_token_id = 2 decoder_start_token_id = None forced_eos_token_id = 2 is_decoder = False tie_word_embeddings = True **kwargs )
参数
- vocab_size (
int, optional, defaults to 50265) — MBART 模型词汇表大小。定义调用 MBartModel 时传递的inputs_ids可以表示的不同标记的数量。 - d_model (
int, optional, defaults to 1024) — 层和池化层的维度。 - encoder_layers (
int, optional, defaults to 12) — 编码器层数。 - decoder_layers (
int, optional, defaults to 12) — 解码器层数。 - encoder_attention_heads (
int, optional, defaults to 16) — Transformer 编码器中每个注意力层的注意力头数量。 - decoder_attention_heads (
int, optional, defaults to 16) — Transformer 解码器中每个注意力层的注意力头数量。 - decoder_ffn_dim (
int, optional, defaults to 4096) — 解码器中“中间”(通常称为前馈)层的维度。 - encoder_ffn_dim (
int, optional, defaults to 4096) — 解码器中“中间”(通常称为前馈)层的维度。 - activation_function (
strorfunction, optional, defaults to"gelu") — 编码器和池化层中的非线性激活函数(函数或字符串)。如果为字符串,则支持"gelu"、"relu"、"silu"和"gelu_new"。 - dropout (
float, optional, defaults to 0.1) — 嵌入层、编码器和池化层中所有全连接层的 dropout 概率。 - attention_dropout (
float, optional, defaults to 0.0) — 注意力概率的 dropout 比率。 - activation_dropout (
float, optional, defaults to 0.0) — 全连接层内激活值的 dropout 比率。 - classifier_dropout (
float, optional, defaults to 0.0) — 分类器的 dropout 比率。 - max_position_embeddings (
int, optional, defaults to 1024) — 该模型可能支持的最大序列长度。通常将其设置为一个较大的值以防万一(例如,512、1024 或 2048)。 - init_std (
float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - encoder_layerdrop (
float, optional, defaults to 0.0) — 编码器的 LayerDrop 概率。有关详细信息,请参阅 [LayerDrop 论文](see https://huggingface.co/papers/1909.11556)。 - decoder_layerdrop (
float, optional, defaults to 0.0) — 解码器的 LayerDrop 概率。有关详细信息,请参阅 [LayerDrop 论文](see https://huggingface.co/papers/1909.11556)。 - scale_embedding (
bool, optional, defaults toFalse) — 通过除以 sqrt(d_model) 来缩放嵌入。 - use_cache (
bool, optional, defaults toTrue) — 是否应返回模型最后的键/值注意力(并非所有模型都使用)。 - forced_eos_token_id (
int, optional, defaults to 2) — 当max_length到达时强制作为最后一个生成的标记的 ID。通常设置为eos_token_id。
这是用于存储 MBartModel 配置的配置类。它用于根据指定的参数实例化一个 MBART 模型,定义模型架构。使用默认值实例化配置将产生与 MBART facebook/mbart-large-cc25 架构类似的配置。
配置对象继承自 PreTrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PreTrainedConfig 的文档。
示例
>>> from transformers import MBartConfig, MBartModel
>>> # Initializing a MBART facebook/mbart-large-cc25 style configuration
>>> configuration = MBartConfig()
>>> # Initializing a model (with random weights) from the facebook/mbart-large-cc25 style configuration
>>> model = MBartModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.configMBartTokenizer
class transformers.MBartTokenizer
< source >( vocab: str | dict | list | None = None bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' src_lang = None tgt_lang = None additional_special_tokens = None **kwargs )
构建一个MBART分词器(由HuggingFace的tokenizers库支持)。基于Unigram。
此分词器继承自 TokenizersBackend,其中包含大部分主要方法。用户应参考此父类了解有关这些方法的更多信息。
源语言文档的分词方法是 <tokens> <eos> <language code>,目标语言文档的分词方法是 `<language code>
示例
>>> from transformers import MBartTokenizer
>>> tokenizer = MBartTokenizer.from_pretrained(
... "facebook/mbart-large-en-ro", src_lang="en_XX", tgt_lang="ro_RO"
... )
>>> example_english_phrase = " UN Chief Says There Is No Military Solution in Syria"
>>> expected_translation_romanian = "Şeful ONU declară că nu există o soluţie militară în Siria"
>>> inputs = tokenizer(example_english_phrase, text_target=expected_translation_romanian, return_tensors="pt")重置特殊标记以适应源语言设置。无前缀,后缀=[eos, src_lang_code]。
重置特殊标记以适应目标语言设置。无前缀,后缀=[eos, tgt_lang_code]。
MBartTokenizerFast
class transformers.MBartTokenizer
< source >( vocab: str | dict | list | None = None bos_token = '<s>' eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' src_lang = None tgt_lang = None additional_special_tokens = None **kwargs )
构建一个MBART分词器(由HuggingFace的tokenizers库支持)。基于Unigram。
此分词器继承自 TokenizersBackend,其中包含大部分主要方法。用户应参考此父类了解有关这些方法的更多信息。
源语言文档的分词方法是 <tokens> <eos> <language code>,目标语言文档的分词方法是 `<language code>
示例
>>> from transformers import MBartTokenizer
>>> tokenizer = MBartTokenizer.from_pretrained(
... "facebook/mbart-large-en-ro", src_lang="en_XX", tgt_lang="ro_RO"
... )
>>> example_english_phrase = " UN Chief Says There Is No Military Solution in Syria"
>>> expected_translation_romanian = "Şeful ONU declară că nu există o soluţie militară în Siria"
>>> inputs = tokenizer(example_english_phrase, text_target=expected_translation_romanian, return_tensors="pt")重置特殊标记以适应源语言设置。无前缀,后缀=[eos, src_lang_code]。
重置特殊标记以适应目标语言设置。无前缀,后缀=[eos, tgt_lang_code]。
MBart50Tokenizer
class transformers.MBart50Tokenizer
< 来源 >( vocab: str | dict | list | None = None src_lang = None tgt_lang = None eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' **kwargs )
参数
- vocab_file (
str, optional) — 词汇文件路径。 - src_lang (
str, optional) — 表示源语言的字符串。 - tgt_lang (
str, optional) — 表示目标语言的字符串。 - eos_token (
str, optional, defaults to"</s>") — 序列结束标记。 - sep_token (
str, optional, defaults to"</s>") — 分隔符标记,用于构建由多个序列组成的序列,例如用于序列分类的两个序列,或用于文本和问题的问答。它也是用特殊标记构建的序列的最后一个标记。 - cls_token (
str, optional, defaults to"<s>") — 分类标记,当进行序列分类(整个序列的分类而不是每个标记的分类)时使用。它是用特殊标记构建的序列的第一个标记。 - unk_token (
str, optional, defaults to"<unk>") — 未知标记。无法转换为 ID 的标记将被设置为该标记。 - pad_token (
str, optional, defaults to"<pad>") — 用于填充的标记,例如当批处理不同长度的序列时。 - mask_token (
str, optional, defaults to"<mask>") — 用于掩码值的标记。这是在用掩码语言建模训练此模型时使用的标记。这是模型试图预测的标记。
构建一个MBart50分词器(由HuggingFace的tokenizers库支持)。基于Unigram。
此分词器继承自 TokenizersBackend,其中包含大部分主要方法。用户应参考此父类了解有关这些方法的更多信息。
示例
>>> from transformers import MBart50Tokenizer
>>> tokenizer = MBart50Tokenizer.from_pretrained("facebook/mbart-large-50", src_lang="en_XX", tgt_lang="ro_RO")
>>> src_text = " UN Chief Says There Is No Military Solution in Syria"
>>> tgt_text = "Şeful ONU declară că nu există o soluţie militară în Siria"
>>> model_inputs = tokenizer(src_text, text_target=tgt_text, return_tensors="pt")
>>> # model(**model_inputs) should work重置特殊标记以适应源语言设置。前缀=[src_lang_code],后缀=[eos]。
重置特殊标记以适应目标语言设置。前缀=[tgt_lang_code],后缀=[eos]。
MBart50TokenizerFast
class transformers.MBart50Tokenizer
< 来源 >( vocab: str | dict | list | None = None src_lang = None tgt_lang = None eos_token = '</s>' sep_token = '</s>' cls_token = '<s>' unk_token = '<unk>' pad_token = '<pad>' mask_token = '<mask>' **kwargs )
参数
- vocab_file (
str, optional) — 词汇文件路径。 - src_lang (
str, optional) — 表示源语言的字符串。 - tgt_lang (
str, optional) — 表示目标语言的字符串。 - eos_token (
str, optional, defaults to"</s>") — 序列结束标记。 - sep_token (
str, optional, defaults to"</s>") — 分隔符标记,用于构建由多个序列组成的序列,例如用于序列分类的两个序列,或用于文本和问题的问答。它也是用特殊标记构建的序列的最后一个标记。 - cls_token (
str, optional, defaults to"<s>") — 分类标记,当进行序列分类(整个序列的分类而不是每个标记的分类)时使用。它是用特殊标记构建的序列的第一个标记。 - unk_token (
str, optional, defaults to"<unk>") — 未知标记。无法转换为 ID 的标记将被设置为该标记。 - pad_token (
str, optional, defaults to"<pad>") — 用于填充的标记,例如当批处理不同长度的序列时。 - mask_token (
str, optional, defaults to"<mask>") — 用于掩码值的标记。这是在用掩码语言建模训练此模型时使用的标记。这是模型试图预测的标记。
构建一个MBart50分词器(由HuggingFace的tokenizers库支持)。基于Unigram。
此分词器继承自 TokenizersBackend,其中包含大部分主要方法。用户应参考此父类了解有关这些方法的更多信息。
示例
>>> from transformers import MBart50Tokenizer
>>> tokenizer = MBart50Tokenizer.from_pretrained("facebook/mbart-large-50", src_lang="en_XX", tgt_lang="ro_RO")
>>> src_text = " UN Chief Says There Is No Military Solution in Syria"
>>> tgt_text = "Şeful ONU declară că nu există o soluţie militară în Siria"
>>> model_inputs = tokenizer(src_text, text_target=tgt_text, return_tensors="pt")
>>> # model(**model_inputs) should work重置特殊标记以适应源语言设置。前缀=[src_lang_code],后缀=[eos]。
重置特殊标记以适应目标语言设置。前缀=[tgt_lang_code],后缀=[eos]。
MBartModel
class transformers.MBartModel
< 来源 >( config: MBartConfig )
参数
- config (MBartConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
Bare Mbart 模型,输出原始隐藏状态,不带任何顶部特定头部。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< 来源 >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None decoder_input_ids: torch.LongTensor | None = None decoder_attention_mask: torch.LongTensor | None = None encoder_outputs: tuple[tuple[torch.FloatTensor]] | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None decoder_inputs_embeds: torch.FloatTensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None cache_position: torch.Tensor | None = None **kwargs ) → transformers.modeling_outputs.Seq2SeqModelOutput 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor, shape(batch_size, sequence_length), optional) — 词汇表中的输入序列标记索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor, shape(batch_size, sequence_length), optional) — 避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]:- 1 表示未被掩码的标记,
- 0 表示被掩码的标记。
- decoder_input_ids (
torch.LongTensor, shape(batch_size, target_sequence_length), optional) — 解码器输入序列标记索引。可以通过 AutoTokenizer 获取索引。请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 获取详细信息。MBart 使用特定的语言 ID 标记作为
decoder_input_ids生成的起始标记,该标记因源语言和目标语言而异,例如 25004 表示 en_XX,25003 表示 de_DE。如果使用past_key_values,则可以选择只输入最后一个decoder_input_ids(请参阅past_key_values)。对于翻译和摘要训练,应提供
decoder_input_ids。如果未提供decoder_input_ids,模型将按照论文中的方法,通过将input_ids向右移位来创建此张量,用于去噪预训练。 - decoder_attention_mask (
torch.LongTensor, shape(batch_size, target_sequence_length), optional) — 默认行为:生成一个忽略decoder_input_ids中填充标记的张量。默认也会使用因果掩码。 - encoder_outputs (
tuple, optional) — 元组由 (last_hidden_state, optional:hidden_states, optional:attentions) 组成last_hidden_stateshape(batch_size, sequence_length, hidden_size), optional) 是编码器最后一层的输出序列。用于解码器的交叉注意力。 - past_key_values (
~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常包括在解码的早期阶段由模型返回的past_key_values,当use_cache=True或config.use_cache=True时。只允许 Cache 实例作为输入,请参阅我们的 kv 缓存指南。如果未传递
past_key_values,默认将初始化 DynamicCache。模型将输出与输入相同的缓存格式。
如果使用
past_key_values,用户应仅输入未处理的input_ids(即尚未为其提供过去键值状态的模型)形状为(batch_size, unprocessed_length),而不是所有input_ids形状为(batch_size, sequence_length)。 - inputs_embeds (
torch.FloatTensor, shape(batch_size, sequence_length, hidden_size), optional) — 或者,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望比模型内部的嵌入查找矩阵更精细地控制如何将input_ids索引转换为关联向量,这会很有用。 - decoder_inputs_embeds (
torch.FloatTensor, shape(batch_size, target_sequence_length, hidden_size), optional) — 或者,您可以选择直接传入嵌入表示,而不是传入decoder_input_ids。如果使用past_key_values,则可以选择只传入最后一个decoder_inputs_embeds(请参阅past_key_values)。如果您希望比模型内部的嵌入查找矩阵更精细地控制如何将decoder_input_ids索引转换为关联向量,这会很有用。如果
decoder_input_ids和decoder_inputs_embeds都未设置,则decoder_inputs_embeds的值与inputs_embeds相同。 - use_cache (
bool, optional) — 如果设置为True,将返回past_key_values键值状态,并可用于加速解码(请参阅past_key_values)。 - output_attentions (
bool, optional) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回的张量下的attentions。 - output_hidden_states (
bool, optional) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回的张量下的hidden_states。 - return_dict (
bool, optional) — 是否返回 ModelOutput 而不是普通元组。 - cache_position (
torch.Tensor, shape(sequence_length), optional) — 指示输入序列标记在序列中位置的索引。与position_ids不同,此张量不受填充的影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.Seq2SeqModelOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.Seq2SeqModelOutput 或一个 torch.FloatTensor 元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置(MBartConfig)和输入。
-
last_hidden_state (
torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size)) — 模型解码器最后一层输出的隐藏状态序列。如果使用了
past_key_values,则只输出形状为(batch_size, 1, hidden_size)的序列的最后一个隐藏状态。 -
past_key_values (
EncoderDecoderCache, optional, 当传入use_cache=True或当config.use_cache=True时返回) — 这是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
decoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。解码器在每个层输出的隐藏状态,加上可选的初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
-
cross_attentions (
tuple(torch.FloatTensor), optional, returned whenoutput_attentions=Trueis passed or whenconfig.output_attentions=True) — Tuple oftorch.FloatTensor(one for each layer) of shape(batch_size, num_heads, sequence_length, sequence_length).解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。
-
encoder_last_hidden_state (
torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size),可选) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。编码器在每个层输出的隐藏状态,加上可选的初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
MBartModel 的 forward 方法,覆盖 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
MBartForConditionalGeneration
class transformers.MBartForConditionalGeneration
< 来源 >( config: MBartConfig )
参数
- config (MBartConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
带有语言建模头的 MBART 模型。在对预训练模型进行微调后,可用于摘要。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< 来源 >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None decoder_input_ids: torch.LongTensor | None = None decoder_attention_mask: torch.LongTensor | None = None encoder_outputs: tuple[tuple[torch.FloatTensor]] | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None decoder_inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None cache_position: torch.Tensor | None = None **kwargs ) → transformers.modeling_outputs.Seq2SeqLMOutput 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor, shape(batch_size, sequence_length), optional) — 词汇表中的输入序列标记索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor, shape(batch_size, sequence_length), optional) — 避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]:- 1 表示未被掩码的标记,
- 0 表示被掩码的标记。
- decoder_input_ids (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 解码器输入序列 token 的索引,在词汇表中。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
MBart 使用特定的语言 ID token 作为
decoder_input_ids生成的起始 token,该 token 因源语言和目标语言而异,例如,en_XX 为 25004,de_DE 为 25003。如果使用了past_key_values,则可以选择只输入最后一个decoder_input_ids(请参阅past_key_values)。对于翻译和摘要训练,应提供
decoder_input_ids。如果未提供decoder_input_ids,则模型将通过右移input_ids来创建此张量,以遵循论文中的降噪预训练。 - decoder_attention_mask (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 默认行为:生成一个忽略decoder_input_ids中 padding token 的张量。默认情况下也会使用因果掩码。 - encoder_outputs (
tuple, optional) — 由 (last_hidden_state, optional:hidden_states, optional:attentions) 组成last_hidden_state的形状为(batch_size, sequence_length, hidden_size),optional) 是编码器最后一层的隐藏状态序列。在解码器的交叉注意力中使用。 - past_key_values (
~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常是由模型在解码的先前阶段返回的past_key_values,当use_cache=True或config.use_cache=True时。仅允许 Cache 实例作为输入,请参阅我们的 kv cache 指南。如果未传递
past_key_values,则默认会初始化 DynamicCache。模型将输出与输入相同的缓存格式。
如果使用了
past_key_values,用户应仅输入未处理的input_ids(即未给出其 past key value 状态的模型)形状为(batch_size, unprocessed_length),而不是所有input_ids形状为(batch_size, sequence_length)。 - inputs_embeds (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望比模型的内部嵌入查找矩阵对如何将input_ids索引转换为关联向量有更多控制,则此选项很有用。 - decoder_inputs_embeds (
torch.FloatTensorof shape(batch_size, target_sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入decoder_input_ids。如果使用了past_key_values,则可以选择只输入最后一个decoder_inputs_embeds(请参阅past_key_values)。如果您希望比模型的内部嵌入查找矩阵对如何将decoder_input_ids索引转换为关联向量有更多控制,则此选项很有用。如果
decoder_input_ids和decoder_inputs_embeds都未设置,则decoder_inputs_embeds的值将取自inputs_embeds。 - labels (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 用于计算掩码语言模型损失的标签。索引应在[0, ..., config.vocab_size]或 -100 之间(请参阅input_ids文档字符串)。索引设置为-100的 token 将被忽略(掩码),损失仅为标签在[0, ..., config.vocab_size]范围内的 token 计算。 - use_cache (
bool, optional) — 如果设置为True,则返回past_key_values键值状态,可用于加速解码(请参阅past_key_values)。 - output_attentions (
bool, optional) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, optional) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states。 - return_dict (
bool, optional) — 是否返回一个 ModelOutput 而不是一个普通的元组。 - cache_position (
torch.Tensorof shape(sequence_length), optional) — 指示输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受 padding 的影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.Seq2SeqLMOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.Seq2SeqLMOutput 或一个 torch.FloatTensor 元组(如果传入了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置(MBartConfig)和输入。
-
loss (
torch.FloatTensor,形状为(1,),可选,当提供labels时返回) — 语言建模损失。 -
logits (形状为
(batch_size, sequence_length, config.vocab_size)的torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。 -
past_key_values (
EncoderDecoderCache, optional, 当传入use_cache=True或当config.use_cache=True时返回) — 这是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
decoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。解码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
-
cross_attentions (
tuple(torch.FloatTensor), optional, returned whenoutput_attentions=Trueis passed or whenconfig.output_attentions=True) — Tuple oftorch.FloatTensor(one for each layer) of shape(batch_size, num_heads, sequence_length, sequence_length).解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。
-
encoder_last_hidden_state (
torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size),可选) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。编码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
MBartForConditionalGeneration 的 forward 方法,重写了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
翻译示例
>>> from transformers import AutoTokenizer, MBartForConditionalGeneration
>>> model = MBartForConditionalGeneration.from_pretrained("facebook/mbart-large-en-ro")
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-en-ro")
>>> example_english_phrase = "42 is the answer"
>>> inputs = tokenizer(example_english_phrase, return_tensors="pt")
>>> # Translate
>>> generated_ids = model.generate(**inputs, num_beams=4, max_length=5)
>>> tokenizer.batch_decode(generated_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
'42 este răspuns'掩码填充示例
>>> from transformers import AutoTokenizer, MBartForConditionalGeneration
>>> model = MBartForConditionalGeneration.from_pretrained("facebook/mbart-large-cc25")
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-cc25")
>>> # de_DE is the language symbol id <LID> for German
>>> TXT = "</s> Meine Freunde sind <mask> nett aber sie essen zu viel Kuchen. </s> de_DE"
>>> input_ids = tokenizer([TXT], add_special_tokens=False, return_tensors="pt")["input_ids"]
>>> logits = model(input_ids).logits
>>> masked_index = (input_ids[0] == tokenizer.mask_token_id).nonzero().item()
>>> probs = logits[0, masked_index].softmax(dim=0)
>>> values, predictions = probs.topk(5)
>>> tokenizer.decode(predictions).split()
['nett', 'sehr', 'ganz', 'nicht', 'so']MBartForQuestionAnswering
class transformers.MBartForQuestionAnswering
< source >( config model_args: ~utils.generic.ModelArgs | None = None adapter_args: ~utils.generic.AdapterArgs | None = None lora_args: ~utils.generic.LoRAArgs | None = None tokenizer_args: ~utils.generic.TokenizerArgs | None = None dataset_args: ~utils.generic.DatasetArgs | None = None data_args: ~utils.generic.DataArgs | None = None training_args: ~utils.generic.TrainingArgs | None = None generation_args: ~utils.generic.GenerationArgs | None = None vision_tower_args: ~utils.generic.VisionTowerArgs | None = None qlora_args: ~utils.generic.QLoRAArgs | None = None vision_tower_template_args: ~utils.generic.VisionTowerTemplateArgs | None = None video_tower_args: ~utils.generic.VideoTowerArgs | None = None vision_config: ~utils.generic.VisionConfig | None = None video_config: ~utils.generic.VideoConfig | None = None load_dataset: bool | None = None load_data_collator: bool | None = None load_processor: bool | None = None load_lora_adapter: bool | None = None load_adapter: bool | None = None load_qlora_adapter: bool | None = None **kwargs: typing_extensions.Unpack[transformers.modeling_utils.PreTrainedModelKwargs] )
参数
- config (MBartForQuestionAnswering) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
MBart transformer 顶部带有 span 分类头,用于提取式问答任务,例如 SQuAD(隐藏状态输出之上的一个线性层,用于计算 span start logits 和 span end logits)。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< source >( input_ids: torch.Tensor | None = None attention_mask: torch.Tensor | None = None decoder_input_ids: torch.LongTensor | None = None decoder_attention_mask: torch.LongTensor | None = None encoder_outputs: list[torch.FloatTensor] | None = None start_positions: torch.LongTensor | None = None end_positions: torch.LongTensor | None = None inputs_embeds: torch.FloatTensor | None = None decoder_inputs_embeds: torch.FloatTensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None cache_position: torch.LongTensor | None = None **kwargs ) → transformers.modeling_outputs.Seq2SeqQuestionAnsweringModelOutput 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.Tensorof shape(batch_size, sequence_length), optional) — 输入序列 token 的索引,在词汇表中。默认情况下将忽略 padding。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensorof shape(batch_size, sequence_length), optional) — 掩码,用于避免对 padding token 索引执行注意力。值 selected in[0, 1]:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- decoder_input_ids (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 解码器输入序列 token 的索引,在词汇表中。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
Bart 使用
eos_token_id作为decoder_input_ids生成的起始 token。如果使用了past_key_values,则可以选择只输入最后一个decoder_input_ids(请参阅past_key_values)。对于翻译和摘要训练,应提供
decoder_input_ids。如果未提供decoder_input_ids,则模型将通过右移input_ids来创建此张量,以遵循论文中的降噪预训练。 - decoder_attention_mask (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 默认行为:生成一个忽略decoder_input_ids中 padding token 的张量。默认情况下也会使用因果掩码。如果您想更改 padding 行为,应阅读
modeling_bart._prepare_decoder_attention_mask并根据您的需求进行修改。有关默认策略的更多信息,请参阅 论文中的图 1。 - encoder_outputs (
list, optional) — 由 (last_hidden_state, optional:hidden_states, optional:attentions) 组成last_hidden_state的形状为(batch_size, sequence_length, hidden_size),optional) 是编码器最后一层的隐藏状态序列。在解码器的交叉注意力中使用。 - start_positions (
torch.LongTensorof shape(batch_size,), optional) — 用于计算 token 分类损失的已标记 span 开始位置(索引)的标签。位置被限制在序列长度(sequence_length)内。序列外的未考虑位置的损失计算。 - end_positions (
torch.LongTensorof shape(batch_size,), optional) — 用于计算 token 分类损失的已标记 span 结束位置(索引)的标签。位置被限制在序列长度(sequence_length)内。序列外的未考虑位置的损失计算。 - inputs_embeds (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望比模型的内部嵌入查找矩阵对如何将input_ids索引转换为关联向量有更多控制,则此选项很有用。 - decoder_inputs_embeds (
torch.FloatTensorof shape(batch_size, target_sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入decoder_input_ids。如果使用了past_key_values,则可以选择只输入最后一个decoder_inputs_embeds(请参阅past_key_values)。如果您希望比模型的内部嵌入查找矩阵对如何将decoder_input_ids索引转换为关联向量有更多控制,则此选项很有用。如果
decoder_input_ids和decoder_inputs_embeds都未设置,则decoder_inputs_embeds的值将取自inputs_embeds。 - use_cache (
bool, optional) — 如果设置为True,则返回past_key_values键值状态,可用于加速解码(请参阅past_key_values)。 - output_attentions (
bool, optional) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, optional) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states。 - return_dict (
bool, optional) — 是否返回一个 ModelOutput 而不是一个普通的元组。 - cache_position (
torch.LongTensorof shape(sequence_length), optional) — 指示输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受 padding 的影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.Seq2SeqQuestionAnsweringModelOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.Seq2SeqQuestionAnsweringModelOutput 或一个 torch.FloatTensor 元组(如果传入了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置(MBartConfig)和输入。
-
loss (
torch.FloatTensorof shape(1,), 可选, 当提供labels时返回) — 总范围提取损失是起始位置和结束位置的交叉熵之和。 -
start_logits (
torch.FloatTensorof shape(batch_size, sequence_length)) — 范围起始分数(SoftMax 之前)。 -
end_logits (
torch.FloatTensorof shape(batch_size, sequence_length)) — 范围结束分数(SoftMax 之前)。 -
past_key_values (
EncoderDecoderCache, optional, 当传入use_cache=True或当config.use_cache=True时返回) — 这是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
decoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。解码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
-
cross_attentions (
tuple(torch.FloatTensor), optional, returned whenoutput_attentions=Trueis passed or whenconfig.output_attentions=True) — Tuple oftorch.FloatTensor(one for each layer) of shape(batch_size, num_heads, sequence_length, sequence_length).解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。
-
encoder_last_hidden_state (
torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size),可选) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。编码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
MBartForQuestionAnswering 的 forward 方法,重写了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from transformers import AutoTokenizer, MBartForQuestionAnswering
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-cc25")
>>> model = MBartForQuestionAnswering.from_pretrained("facebook/mbart-large-cc25")
>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"
>>> inputs = tokenizer(question, text, return_tensors="pt")
>>> with torch.no_grad():
... outputs = model(**inputs)
>>> answer_start_index = outputs.start_logits.argmax()
>>> answer_end_index = outputs.end_logits.argmax()
>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> tokenizer.decode(predict_answer_tokens, skip_special_tokens=True)
...
>>> # target is "nice puppet"
>>> target_start_index = torch.tensor([14])
>>> target_end_index = torch.tensor([15])
>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = outputs.loss
>>> round(loss.item(), 2)
...MBartForSequenceClassification
class transformers.MBartForSequenceClassification
< source >( config: MBartConfig **kwargs )
参数
- config (MBartConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
MBart 模型顶部带有序列分类/头(池化输出之上的一个线性层),例如用于 GLUE 任务。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None decoder_input_ids: torch.LongTensor | None = None decoder_attention_mask: torch.LongTensor | None = None encoder_outputs: list[torch.FloatTensor] | None = None inputs_embeds: torch.FloatTensor | None = None decoder_inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None cache_position: torch.LongTensor | None = None **kwargs ) → transformers.modeling_outputs.Seq2SeqSequenceClassifierOutput 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 输入序列 token 的索引,在词汇表中。默认情况下将忽略 padding。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensorof shape(batch_size, sequence_length), optional) — 掩码,用于避免对 padding token 索引执行注意力。值 selected in[0, 1]:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- decoder_input_ids (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 解码器输入序列 token 的索引,在词汇表中。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
Bart 使用
eos_token_id作为decoder_input_ids生成的起始 token。如果使用了past_key_values,则可以选择只输入最后一个decoder_input_ids(请参阅past_key_values)。对于翻译和摘要训练,应提供
decoder_input_ids。如果未提供decoder_input_ids,则模型将通过右移input_ids来创建此张量,以遵循论文中的降噪预训练。 - decoder_attention_mask (
torch.LongTensorof shape(batch_size, target_sequence_length), optional) — 默认行为:生成一个忽略decoder_input_ids中 padding token 的张量。默认情况下也会使用因果掩码。如果您想更改 padding 行为,应阅读
modeling_bart._prepare_decoder_attention_mask并根据您的需求进行修改。有关默认策略的更多信息,请参阅 论文中的图 1。 - encoder_outputs (
list, optional) — 由 (last_hidden_state, optional:hidden_states, optional:attentions) 组成last_hidden_state的形状为(batch_size, sequence_length, hidden_size),optional) 是编码器最后一层的隐藏状态序列。在解码器的交叉注意力中使用。 - inputs_embeds (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望比模型的内部嵌入查找矩阵对如何将input_ids索引转换为关联向量有更多控制,则此选项很有用。 - decoder_inputs_embeds (
torch.FloatTensorof shape(batch_size, target_sequence_length, hidden_size), optional) — 可选,您可以选择直接传入嵌入表示,而不是传入decoder_input_ids。如果使用了past_key_values,则可以选择只输入最后一个decoder_inputs_embeds(请参阅past_key_values)。如果您希望比模型的内部嵌入查找矩阵对如何将decoder_input_ids索引转换为关联向量有更多控制,则此选项很有用。如果
decoder_input_ids和decoder_inputs_embeds都未设置,则decoder_inputs_embeds的值将取自inputs_embeds。 - labels (
torch.LongTensorof shape(batch_size,), optional) — 用于计算序列分类/回归损失的标签。索引应在[0, ..., config.num_labels - 1]之间。如果config.num_labels > 1,则计算分类损失(交叉熵)。 - use_cache (
bool, optional) — 如果设置为True,则返回past_key_values键值状态,可用于加速解码(请参阅past_key_values)。 - output_attentions (
bool, optional) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, optional) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states。 - return_dict (
bool, optional) — 是否返回一个 ModelOutput 而不是一个普通的元组。 - cache_position (
torch.LongTensorof shape(sequence_length), optional) — 指示输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受 padding 的影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.Seq2SeqSequenceClassifierOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.Seq2SeqSequenceClassifierOutput 或一个 torch.FloatTensor 元组(如果传入了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置(MBartConfig)和输入。
-
loss (形状为
(1,)的torch.FloatTensor,可选,当提供label时返回) — 分类 (如果 config.num_labels==1 则为回归) 损失。 -
logits (形状为
(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。 -
past_key_values (
EncoderDecoderCache, optional, 当传入use_cache=True或当config.use_cache=True时返回) — 这是一个 EncoderDecoderCache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
decoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。解码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
-
cross_attentions (
tuple(torch.FloatTensor), optional, returned whenoutput_attentions=Trueis passed or whenconfig.output_attentions=True) — Tuple oftorch.FloatTensor(one for each layer) of shape(batch_size, num_heads, sequence_length, sequence_length).解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。
-
encoder_last_hidden_state (
torch.FloatTensor,形状为(batch_size, sequence_length, hidden_size),可选) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor), optional, 当传入output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。编码器在每一层输出时的隐藏状态以及初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor), optional, 当传入output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均。
MBartForSequenceClassification 的 forward 方法,重写了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
单标签分类示例
>>> import torch
>>> from transformers import AutoTokenizer, MBartForSequenceClassification
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-cc25")
>>> model = MBartForSequenceClassification.from_pretrained("facebook/mbart-large-cc25")
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> predicted_class_id = logits.argmax().item()
>>> model.config.id2label[predicted_class_id]
...
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = MBartForSequenceClassification.from_pretrained("facebook/mbart-large-cc25", num_labels=num_labels)
>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss
>>> round(loss.item(), 2)
...多标签分类示例
>>> import torch
>>> from transformers import AutoTokenizer, MBartForSequenceClassification
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-cc25")
>>> model = MBartForSequenceClassification.from_pretrained("facebook/mbart-large-cc25", problem_type="multi_label_classification")
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = MBartForSequenceClassification.from_pretrained(
... "facebook/mbart-large-cc25", num_labels=num_labels, problem_type="multi_label_classification"
... )
>>> labels = torch.sum(
... torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).lossMBartForCausalLM
forward
< 来源 >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None encoder_hidden_states: torch.FloatTensor | None = None encoder_attention_mask: torch.FloatTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None cache_position: torch.LongTensor | None = None logits_to_keep: int | torch.Tensor = 0 **kwargs ) → transformers.modeling_outputs.CausalLMOutputWithCrossAttentions 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 词汇表中的输入序列 token 索引。默认情况下会忽略填充。索引可以通过 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensorof shape(batch_size, sequence_length), optional) — 用于避免对填充 token 索引执行 attention 的掩码。掩码值选择自[0, 1]:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- encoder_hidden_states (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 编码器最后一层输出的 hidden-states 序列。如果模型配置为解码器,则在 cross-attention 中使用。 - encoder_attention_mask (
torch.FloatTensorof shape(batch_size, sequence_length), optional) — 用于避免对编码器输入的填充 token 索引执行 attention 的掩码。如果模型配置为解码器,则此掩码在 cross-attention 中使用。掩码值选择自[0, 1]:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- past_key_values (
~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算 hidden-states(self-attention 块和 cross-attention 块中的 key 和 value)。这通常是模型在解码的先前阶段返回的past_key_values,当use_cache=True或config.use_cache=True时。仅允许使用 Cache 实例,请参阅我们的 kv cache 指南。如果未传递
past_key_values,则默认初始化 DynamicCache。模型将输出与输入相同的 cache 格式。
如果使用
past_key_values,用户应仅输入未处理的input_ids(即没有其 past key value 状态已传递给此模型的那些),形状为(batch_size, unprocessed_length),而不是全部input_ids,形状为(batch_size, sequence_length)。 - inputs_embeds (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 可选,您也可以直接传入嵌入表示,而不是传递input_ids。如果您想比模型内部的嵌入查找矩阵更精细地控制如何将input_ids索引转换为相关的向量,则此参数很有用。 - labels (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 用于计算masked language modeling loss 的标签。索引应在[0, ..., config.vocab_size]或 -100 范围内(请参阅input_idsdocstring)。索引为-100的 token 会被忽略(掩码),损失仅为具有[0, ..., config.vocab_size]范围内标签的 token 计算。 - use_cache (
bool, optional) — 如果设置为True,则返回past_key_values键值状态,并可用于加速解码(请参阅past_key_values)。 - output_attentions (
bool, optional) — 是否返回所有 attention 层的 attention 张量。有关更多详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, optional) — 是否返回所有层的 hidden states。有关更多详细信息,请参阅返回张量下的hidden_states。 - return_dict (
bool, optional) — 是否返回 ModelOutput 而不是普通的 tuple。 - cache_position (
torch.LongTensorof shape(sequence_length), optional) — 指示输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受填充影响。它用于在正确位置更新 cache,并推断完整的序列长度。 - logits_to_keep (
Union[int, torch.Tensor], optional, defaults to0) — 如果为int,则计算最后logits_to_keep个 token 的 logits。如果为0,则计算所有input_ids的 logits(特殊情况)。仅生成需要最后一个 token 的 logits,并且仅为该 token 计算它们可以节省内存,这对于长序列或大词汇量来说非常显著。如果为torch.Tensor,必须是 1D 的,对应于序列长度维度中要保留的索引。这在使用打包的张量格式(批次和序列长度的单维)时很有用。
返回
transformers.modeling_outputs.CausalLMOutputWithCrossAttentions or tuple(torch.FloatTensor)
根据配置(MBartConfig)和输入,transformers.modeling_outputs.CausalLMOutputWithCrossAttentions 或 torch.FloatTensor 的 tuple(如果传递了 return_dict=False 或当 config.return_dict=False 时)的各种元素。
-
loss (
torch.FloatTensor形状为(1,),可选,当提供labels时返回) — 语言建模损失(用于下一个 token 预测)。 -
logits (形状为
(batch_size, sequence_length, config.vocab_size)的torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。 -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
-
cross_attentions (
tuple(torch.FloatTensor), optional, returned whenoutput_attentions=Trueis passed or whenconfig.output_attentions=True) — Tuple oftorch.FloatTensor(one for each layer) of shape(batch_size, num_heads, sequence_length, sequence_length).注意力 softmax 后的交叉注意力权重,用于计算交叉注意力头中的加权平均。
-
past_key_values (
Cache, optional, 当传递use_cache=True或当config.use_cache=True时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南。包含预先计算的隐藏状态(注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。
MBartForCausalLM 的 forward 方法重写了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from transformers import AutoTokenizer, MBartForCausalLM
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/mbart-large-cc25")
>>> model = MBartForCausalLM.from_pretrained("facebook/mbart-large-cc25")
>>> assert model.config.is_decoder, f"{model.__class__} has to be configured as a decoder."
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)
>>> logits = outputs.logits
>>> expected_shape = [1, inputs.input_ids.shape[-1], model.config.vocab_size]
>>> list(logits.shape) == expected_shape
True