Transformers 文档

MarianMT

Hugging Face's logo
加入 Hugging Face 社区

获取增强的文档体验

开始使用

MarianMT

Models Spaces

概述

一个翻译模型框架,使用与 BART 相同的模型。翻译应该与每个模型卡中链接的测试集中的输出相似,但不完全相同。该模型由 sshleifer 贡献。

实现说明

  • 每个模型在磁盘上约为 298 MB,有超过 1,000 个模型。

  • 支持的语言对列表可以在 这里 找到。

  • 模型最初由 Jörg Tiedemann 使用 Marian C++ 库训练,该库支持快速训练和翻译。

  • 所有模型都是具有 6 层编码器-解码器的变压器模型,每个组件都有 6 层。每个模型的性能都在模型卡中记录。

  • 不支持需要 BPE 预处理的 80 个 opus 模型。

  • 建模代码与 BartForConditionalGeneration 相同,但有一些细微的修改

    • 静态(正弦波)位置嵌入 (MarianConfig.static_position_embeddings=True)
    • 没有 layernorm_embedding (MarianConfig.normalize_embedding=False)
    • 模型以 pad_token_id(其在 token_embedding 中为 0)作为前缀开始生成(Bart 使用 <s/>),
  • 批量转换模型的代码可以在 convert_marian_to_pytorch.py 中找到。

命名

  • 所有模型名称都使用以下格式:Helsinki-NLP/opus-mt-{src}-{tgt}
  • 用于命名模型的语言代码不一致。通常可以在 这里 找到两位代码,三位代码需要搜索“语言代码 {code}”。
  • es_AR 这样的代码通常是 code_{region}。那个是来自阿根廷的西班牙语。
  • 模型是分两个阶段转换的。前 1000 个模型使用 ISO-639-2 代码识别语言,第二组使用 ISO-639-5 代码和 ISO-639-2 代码的组合。

示例

  • 由于 Marian 模型比库中可用的许多其他翻译模型更小,因此它们可用于微调实验和集成测试。
  • 在 GPU 上微调

多语言模型

  • 所有模型名称都使用以下格式:Helsinki-NLP/opus-mt-{src}-{tgt}
  • 如果模型可以输出多种语言,则应通过在 src_text 前添加所需的输出语言来指定语言代码。
  • 您可以在模型卡中看到模型支持的语言代码,位于目标成分下,例如 opus-mt-en-roa
  • 请注意,如果模型仅在源侧支持多种语言,例如 Helsinki-NLP/opus-mt-roa-en,则不需要语言代码。

来自 Tatoeba-Challenge 存储库 的新的多语言模型需要 3 个字符的语言代码

>>> from transformers import MarianMTModel, MarianTokenizer

>>> src_text = [
...     ">>fra<< this is a sentence in english that we want to translate to french",
...     ">>por<< This should go to portuguese",
...     ">>esp<< And this to Spanish",
... ]

>>> model_name = "Helsinki-NLP/opus-mt-en-roa"
>>> tokenizer = MarianTokenizer.from_pretrained(model_name)
>>> print(tokenizer.supported_language_codes)
['>>zlm_Latn<<', '>>mfe<<', '>>hat<<', '>>pap<<', '>>ast<<', '>>cat<<', '>>ind<<', '>>glg<<', '>>wln<<', '>>spa<<', '>>fra<<', '>>ron<<', '>>por<<', '>>ita<<', '>>oci<<', '>>arg<<', '>>min<<']

>>> model = MarianMTModel.from_pretrained(model_name)
>>> translated = model.generate(**tokenizer(src_text, return_tensors="pt", padding=True))
>>> [tokenizer.decode(t, skip_special_tokens=True) for t in translated]
["c'est une phrase en anglais que nous voulons traduire en français",
 'Isto deve ir para o português.',
 'Y esto al español']

以下是查看中心上所有可用的预训练模型的代码

from huggingface_hub import list_models

model_list = list_models()
org = "Helsinki-NLP"
model_ids = [x.id for x in model_list if x.id.startswith(org)]
suffix = [x.split("/")[1] for x in model_ids]
old_style_multi_models = [f"{org}/{s}" for s in suffix if s != s.lower()]

旧式多语言模型

这些是从 OPUS-MT-Train 存储库移植的旧式多语言模型:以及每个语言组的成员

['Helsinki-NLP/opus-mt-NORTH_EU-NORTH_EU',
 'Helsinki-NLP/opus-mt-ROMANCE-en',
 'Helsinki-NLP/opus-mt-SCANDINAVIA-SCANDINAVIA',
 'Helsinki-NLP/opus-mt-de-ZH',
 'Helsinki-NLP/opus-mt-en-CELTIC',
 'Helsinki-NLP/opus-mt-en-ROMANCE',
 'Helsinki-NLP/opus-mt-es-NORWAY',
 'Helsinki-NLP/opus-mt-fi-NORWAY',
 'Helsinki-NLP/opus-mt-fi-ZH',
 'Helsinki-NLP/opus-mt-fi_nb_no_nn_ru_sv_en-SAMI',
 'Helsinki-NLP/opus-mt-sv-NORWAY',
 'Helsinki-NLP/opus-mt-sv-ZH']
GROUP_MEMBERS = {
 'ZH': ['cmn', 'cn', 'yue', 'ze_zh', 'zh_cn', 'zh_CN', 'zh_HK', 'zh_tw', 'zh_TW', 'zh_yue', 'zhs', 'zht', 'zh'],
 'ROMANCE': ['fr', 'fr_BE', 'fr_CA', 'fr_FR', 'wa', 'frp', 'oc', 'ca', 'rm', 'lld', 'fur', 'lij', 'lmo', 'es', 'es_AR', 'es_CL', 'es_CO', 'es_CR', 'es_DO', 'es_EC', 'es_ES', 'es_GT', 'es_HN', 'es_MX', 'es_NI', 'es_PA', 'es_PE', 'es_PR', 'es_SV', 'es_UY', 'es_VE', 'pt', 'pt_br', 'pt_BR', 'pt_PT', 'gl', 'lad', 'an', 'mwl', 'it', 'it_IT', 'co', 'nap', 'scn', 'vec', 'sc', 'ro', 'la'],
 'NORTH_EU': ['de', 'nl', 'fy', 'af', 'da', 'fo', 'is', 'no', 'nb', 'nn', 'sv'],
 'SCANDINAVIA': ['da', 'fo', 'is', 'no', 'nb', 'nn', 'sv'],
 'SAMI': ['se', 'sma', 'smj', 'smn', 'sms'],
 'NORWAY': ['nb_NO', 'nb', 'nn_NO', 'nn', 'nog', 'no_nb', 'no'],
 'CELTIC': ['ga', 'cy', 'br', 'gd', 'kw', 'gv']
}

使用旧式 2 字符语言代码将英语翻译成多种罗曼语的示例

>>> from transformers import MarianMTModel, MarianTokenizer

>>> src_text = [
...     ">>fr<< this is a sentence in english that we want to translate to french",
...     ">>pt<< This should go to portuguese",
...     ">>es<< And this to Spanish",
... ]

>>> model_name = "Helsinki-NLP/opus-mt-en-ROMANCE"
>>> tokenizer = MarianTokenizer.from_pretrained(model_name)

>>> model = MarianMTModel.from_pretrained(model_name)
>>> translated = model.generate(**tokenizer(src_text, return_tensors="pt", padding=True))
>>> tgt_text = [tokenizer.decode(t, skip_special_tokens=True) for t in translated]
["c'est une phrase en anglais que nous voulons traduire en français", 
 'Isto deve ir para o português.',
 'Y esto al español']

资源

MarianConfig

class transformers.MarianConfig

< >

( vocab_size = 58101 decoder_vocab_size = None max_position_embeddings = 1024 encoder_layers = 12 encoder_ffn_dim = 4096 encoder_attention_heads = 16 decoder_layers = 12 decoder_ffn_dim = 4096 decoder_attention_heads = 16 encoder_layerdrop = 0.0 decoder_layerdrop = 0.0 use_cache = True is_encoder_decoder = True activation_function = 'gelu' d_model = 1024 dropout = 0.1 attention_dropout = 0.0 activation_dropout = 0.0 init_std = 0.02 decoder_start_token_id = 58100 scale_embedding = False pad_token_id = 58100 eos_token_id = 0 forced_eos_token_id = 0 share_encoder_decoder_embeddings = True **kwargs )

参数

  • vocab_size (int, 可选, 默认为 58101) — Marian 模型的词汇量大小。定义了调用 MarianModelTFMarianModel 时,可以通过 inputs_ids 表示的不同标记的数量。
  • d_model (int, 可选, 默认为 1024) — 层和池化层的大小。
  • encoder_layers (int, 可选, 默认为 12) — 编码器层数。
  • decoder_layers (int, 可选, 默认为 12) — 解码器层数。
  • encoder_attention_heads (int, 可选, 默认为 16) — Transformer 编码器中每个注意力层的注意力头数。
  • decoder_attention_heads (int, 可选, 默认为 16) — Transformer 解码器中每个注意力层的注意力头数。
  • encoder_ffn_dim (int, 可选, 默认为 4096) — 解码器中“中间”(通常称为前馈)层的维度。
  • activation_function (strfunction, 可选, 默认为 "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "gelu""relu""silu""gelu_new"
  • dropout (float, 可选, 默认为 0.1) — 嵌入、编码器和池化器中所有全连接层的 dropout 概率。
  • attention_dropout (float, 可选, 默认为 0.0) — 注意概率的 dropout 比率。
  • activation_dropout (float, 可选, 默认为 0.0) — 全连接层内激活的 dropout 比率。
  • max_position_embeddings (int, 可选, 默认为 1024) — 此模型可能使用到的最大序列长度。通常将其设置为一个较大的值以防万一(例如,512 或 1024 或 2048)。
  • init_std (float, 可选, 默认为 0.02) — 初始化所有权重矩阵的截断正态初始化的标准差。
  • encoder_layerdrop (float, 可选, 默认为 0.0) — 编码器的 LayerDrop 概率。有关更多详细信息,请参见 [LayerDrop 论文](参见 https://arxiv.org/abs/1909.11556)。
  • decoder_layerdrop (float, 可选, 默认为 0.0) — 解码器的 LayerDrop 概率。有关更多详细信息,请参见 [LayerDrop 论文](参见 https://arxiv.org/abs/1909.11556)。
  • scale_embedding (bool, 可选, 默认为 False) — 通过除以 sqrt(d_model) 来缩放嵌入。
  • forced_eos_token_id (int, optional, defaults to 0) — 当 max_length 达到时,强制作为最后一个生成token的token id。 通常设置为 eos_token_id

这是一个用于存储 MarianModel 配置的配置类。 它用于根据指定的参数实例化一个 Marian 模型,定义模型架构。 使用默认值实例化配置将产生与 Marian Helsinki-NLP/opus-mt-en-de 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 中的文档以了解更多信息。

示例

>>> from transformers import MarianModel, MarianConfig

>>> # Initializing a Marian Helsinki-NLP/opus-mt-en-de style configuration
>>> configuration = MarianConfig()

>>> # Initializing a model from the Helsinki-NLP/opus-mt-en-de style configuration
>>> model = MarianModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

MarianTokenizer

class transformers.MarianTokenizer

< >

( source_spm target_spm vocab target_vocab_file = None source_lang = None target_lang = None unk_token = '<unk>' eos_token = '</s>' pad_token = '<pad>' model_max_length = 512 sp_model_kwargs: Optional = None separate_vocabs = False **kwargs )

参数

  • source_spm (str) — SentencePiece 文件(通常具有 .spm 扩展名),其中包含源语言的词汇表。
  • target_spm (str) — SentencePiece 文件(通常具有 .spm 扩展名),其中包含目标语言的词汇表。
  • source_lang (str, optional) — 表示源语言的字符串。
  • target_lang (str, optional) — 表示目标语言的字符串。
  • unk_token (str, optional, defaults to "<unk>") — 未知词token。 词汇表中不存在的token无法转换为ID,而是设置为该token。
  • eos_token (str, optional, defaults to "</s>") — 序列结束token。
  • model_max_length (int, 可选, 默认为 512) — 模型接受的最大句子长度。
  • additional_special_tokens (List[str], 可选, 默认为 ["<eop>", "<eod>"]) — 分词器使用的额外特殊标记。
  • sp_model_kwargs (dict, 可选) — 将传递给 SentencePieceProcessor.__init__() 方法。 SentencePiece 的 Python 包装器 可用于设置以下内容:

    • enable_sampling: 启用子词正则化。

    • nbest_size: 一元模型的采样参数。对于 BPE-Dropout 无效。

      • nbest_size = {0,1}: 不执行采样。
      • nbest_size > 1: 从 nbest_size 个结果中进行采样。
      • nbest_size < 0: 假设 nbest_size 是无限的,并使用前向过滤和后向采样算法从所有假设(格)中进行采样。
    • alpha: 一元采样的平滑参数,以及 BPE-dropout 合并操作的 dropout 概率。

构造一个 Marian 分词器。基于 SentencePiece

此分词器继承自 PreTrainedTokenizer,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

示例

>>> from transformers import MarianForCausalLM, MarianTokenizer

>>> model = MarianForCausalLM.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> tokenizer = MarianTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> src_texts = ["I am a small frog.", "Tom asked his teacher for advice."]
>>> tgt_texts = ["Ich bin ein kleiner Frosch.", "Tom bat seinen Lehrer um Rat."]  # optional
>>> inputs = tokenizer(src_texts, text_target=tgt_texts, return_tensors="pt", padding=True)

>>> outputs = model(**inputs)  # should work

build_inputs_with_special_tokens

< >

( token_ids_0 token_ids_1 = None )

通过追加 eos_token_id 从序列构建模型输入。

Pytorch
隐藏 Pytorch 内容

MarianModel

class transformers.MarianModel

< >

( config: MarianConfig )

参数

  • config (MarianConfig) — 模型配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

裸 Marian 模型,输出原始隐藏状态,没有任何特定头部。此模型继承自 PreTrainedModel。查看超类文档以了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入的大小、修剪头部等)。

此模型也是一个 PyTorch torch.nn.Module 子类。将其用作常规的 PyTorch 模块,并参考 PyTorch 文档以了解所有与一般用法和行为相关的事项。

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None head_mask: Optional = None decoder_head_mask: Optional = None cross_attn_head_mask: Optional = None encoder_outputs: Union = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.Seq2SeqModelOutput or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。默认情况下,如果您提供填充,将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 用于避免对填充标记索引执行注意的掩码。在 [0, 1] 中选择掩码值:

    • 1 用于 未被掩码 的标记,
    • 0 用于 被掩码 的标记.

    什么是注意力掩码?

  • decoder_input_ids (torch.LongTensor 形状为 (batch_size, target_sequence_length), 可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Marian 使用 pad_token_id 作为 decoder_input_ids 生成的起始标记。如果使用 past_key_values,可以选择只输入最后一个 decoder_input_ids(参见 past_key_values)。

  • decoder_attention_mask (torch.LongTensor 形状为 (batch_size, target_sequence_length), 可选) — 默认行为:生成一个忽略 decoder_input_ids 中填充标记的张量。因果掩码也默认使用。
  • head_mask (torch.Tensor 形状为 (encoder_layers, encoder_attention_heads), 可选) — 用于使编码器中注意力模块的选定头部无效的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示头部 未被掩码,
    • 0 表示头部 被掩码.
  • decoder_head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 用于使解码器中注意力模块的选定头部无效的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示头部 未被掩码,
    • 0 表示头部 被掩码.
  • cross_attn_head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 用于使解码器中交叉注意力模块的选定头部无效的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示头部 未被掩码,
    • 0 表示头部 被掩码.
  • encoder_outputs (tuple(tuple(torch.FloatTensor), 可选) — 元组包含 (last_hidden_state, 可选: hidden_states, 可选: attentions) last_hidden_state 形状为 (batch_size, sequence_length, hidden_size), 可选) 是编码器最后一层输出的隐藏状态序列。用于解码器的交叉注意力。
  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(torch.FloatTensor) 元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量和两个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

    如果使用 past_key_values,用户可以选择仅输入形状为 (batch_size, 1) 的最后一个 decoder_input_ids(那些没有提供给此模型的过去键值状态)而不是所有形状为 (batch_size, sequence_length)decoder_input_ids

  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵对如何将 input_ids 索引转换为相关向量有更多控制权,这将很有用。
  • decoder_inputs_embeds (torch.FloatTensor 形状为 (batch_size, target_sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 decoder_input_ids。如果使用 past_key_values,可以选择仅输入最后一个 decoder_inputs_embeds(参见 past_key_values)。如果您希望比模型的内部嵌入查找矩阵对如何将 decoder_input_ids 索引转换为相关向量有更多控制权,这将很有用。

    如果 decoder_input_idsdecoder_inputs_embeds 都未设置,decoder_inputs_embeds 将取 inputs_embeds 的值。

  • use_cache (bool, 可选) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码(参见 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput 而不是一个简单的元组。

返回

transformers.modeling_outputs.Seq2SeqModelOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.Seq2SeqModelOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置 (MarianConfig) 和输入的不同元素。

  • last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型解码器最后一层输出的隐藏状态序列。

    如果使用 past_key_values,则仅输出形状为 (batch_size, 1, hidden_size) 的序列的最后一个隐藏状态。

  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(torch.FloatTensor) 元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量和两个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入的输出,如果模型具有嵌入层,+ 每个层的输出)形状为 (batch_size, sequence_length, hidden_size)

    解码器中每个层的输出处的隐藏状态,加上可选的初始嵌入输出。

  • decoder_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(torch.FloatTensor), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor 元组(如果模型有嵌入层,则一个用于嵌入的输出,加上每个层的输出)。

    每个层输出的编码器隐藏状态,加上可选的初始嵌入输出。

  • encoder_attentions (tuple(torch.FloatTensor), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor 元组(每个层一个)。

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

MarianModel 的正向方法覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, MarianModel

>>> tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> model = MarianModel.from_pretrained("Helsinki-NLP/opus-mt-en-de")

>>> inputs = tokenizer("Studies have been shown that owning a dog is good for you", return_tensors="pt")
>>> decoder_inputs = tokenizer(
...     "<pad> Studien haben gezeigt dass es hilfreich ist einen Hund zu besitzen",
...     return_tensors="pt",
...     add_special_tokens=False,
... )
>>> outputs = model(input_ids=inputs.input_ids, decoder_input_ids=decoder_inputs.input_ids)

>>> last_hidden_states = outputs.last_hidden_state
>>> list(last_hidden_states.shape)
[1, 26, 512]

MarianMTModel

class transformers.MarianMTModel

< >

( config: MarianConfig )

参数

  • config (MarianConfig) — 包含模型所有参数的模型配置类。用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

带有语言建模头的 Marian 模型。可用于摘要。此模型继承自 PreTrainedModel。查看超类文档以了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。

此模型也是一个 PyTorch torch.nn.Module 子类。将其用作常规的 PyTorch 模块,并参考 PyTorch 文档以了解所有与一般用法和行为相关的事项。

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None decoder_input_ids: Optional = None decoder_attention_mask: Optional = None head_mask: Optional = None decoder_head_mask: Optional = None cross_attn_head_mask: Optional = None encoder_outputs: Union = None past_key_values: Optional = None inputs_embeds: Optional = None decoder_inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 用于避免对填充标记索引执行注意力的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示 未被掩码 的标记,
    • 0 表示 被掩码 的标记。

    什么是注意力掩码?

  • decoder_input_ids (torch.LongTensor 形状为 (batch_size, target_sequence_length), 可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Marian 使用 pad_token_id 作为 decoder_input_ids 生成的起始标记。如果使用 past_key_values,可以选择仅输入最后一个 decoder_input_ids(见 past_key_values)。

  • decoder_attention_mask (torch.LongTensor 形状为 (batch_size, target_sequence_length), 可选) — 默认行为:生成一个张量,忽略 decoder_input_ids 中的填充标记。因果掩码也将默认使用。
  • head_mask (torch.Tensor 形状为 (encoder_layers, encoder_attention_heads), 可选) — 掩码以使编码器中注意力模块的选定头部无效。掩码值选择在 [0, 1] 中:

    • 1 表示头部未被掩盖
    • 0 表示头部被掩盖
  • decoder_head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 掩码以使解码器中注意力模块的选定头部无效。掩码值选择在 [0, 1] 中:

    • 1 表示头部未被掩盖
    • 0 表示头部被掩盖
  • cross_attn_head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 掩码以使解码器中交叉注意力模块的选定头部无效。掩码值选择在 [0, 1] 中:

    • 1 表示头部未被掩盖
    • 0 表示头部被掩盖
  • encoder_outputs (tuple(tuple(torch.FloatTensor), 可选) — 元组由 (last_hidden_state, 可选: hidden_states, 可选: attentions) 组成 last_hidden_state 形状为 (batch_size, sequence_length, hidden_size), 可选) 是编码器最后一层输出的隐藏状态序列。在解码器的交叉注意力中使用。
  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 元组,每个元组包含 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量)和 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的附加张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(见 past_key_values 输入)加速顺序解码。

    如果使用 past_key_values,用户可以选择仅输入最后一个 decoder_input_ids(那些没有给出其过去键值状态的模型)形状为 (batch_size, 1),而不是所有 decoder_input_ids 形状为 (batch_size, sequence_length)

  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您想对如何将 input_ids 索引转换为相关向量比模型的内部嵌入查找矩阵有更多控制权,这将非常有用。
  • decoder_inputs_embeds (torch.FloatTensor 形状为 (batch_size, target_sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 decoder_input_ids。如果使用 past_key_values,则可以选择仅输入最后一个 decoder_inputs_embeds(见 past_key_values)。如果您想要对如何将 decoder_input_ids 索引转换为相关向量进行更多控制(而不是模型的内部嵌入查找矩阵),这将非常有用。

    如果 decoder_input_idsdecoder_inputs_embeds 都未设置,decoder_inputs_embeds 将取 inputs_embeds 的值。

  • use_cache (bool, 可选) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码(见 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量中的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput,而不是一个简单的元组。
  • labels (torch.LongTensor 形状为 (batch_size, sequence_length), 可选) — 用于计算掩码语言建模损失的标签。索引应该在 [0, ..., config.vocab_size] 或 -100 中(见 input_ids 文档字符串)。索引设置为 -100 的标记将被忽略(屏蔽),损失仅针对标签在 [0, ..., config.vocab_size] 中的标记进行计算。

返回

transformers.modeling_outputs.Seq2SeqLMOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.Seq2SeqLMOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False 时),包含根据配置 (MarianConfig) 和输入而变化的各种元素。

  • loss (torch.FloatTensor 形状为 (1,), 可选, 当提供 labels 时返回) — 语言建模损失。

  • logits (torch.FloatTensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前的每个词汇标记的分数)。

  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(torch.FloatTensor) 元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量和两个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入的输出,如果模型具有嵌入层,+ 每个层的输出)形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • decoder_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(torch.FloatTensor), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor 元组(如果模型有嵌入层,则一个用于嵌入的输出,加上每个层的输出)。

    编码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • encoder_attentions (tuple(torch.FloatTensor), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor 元组(每个层一个)。

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

The MarianMTModel 正向方法,覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

marian-nmt 的 transformer.h (c++) 的 Pytorch 版本。专为 OPUS-NMT 翻译检查点设计。可用的模型列在 这里

示例

>>> from transformers import AutoTokenizer, MarianMTModel

>>> src = "fr"  # source language
>>> trg = "en"  # target language

>>> model_name = f"Helsinki-NLP/opus-mt-{src}-{trg}"
>>> model = MarianMTModel.from_pretrained(model_name)
>>> tokenizer = AutoTokenizer.from_pretrained(model_name)

>>> sample_text = "où est l'arrêt de bus ?"
>>> batch = tokenizer([sample_text], return_tensors="pt")

>>> generated_ids = model.generate(**batch)
>>> tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
"Where's the bus stop?"

MarianForCausalLM

class transformers.MarianForCausalLM

< >

( config )

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None encoder_hidden_states: Optional = None encoder_attention_mask: Optional = None head_mask: Optional = None cross_attn_head_mask: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.CausalLMOutputWithCrossAttentions or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 掩码,用于避免对填充标记索引执行注意力。掩码值在 [0, 1] 中选择:

    • 1 表示未掩码的标记,
    • 0 表示掩码的标记。

    什么是注意力掩码?

  • encoder_hidden_states (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 编码器最后一层输出处的隐藏状态序列。如果模型配置为解码器,则在交叉注意力中使用。
  • encoder_attention_mask (torch.FloatTensor 形状为 (batch_size, sequence_length), 可选) — 掩码,用于避免对编码器输入的填充标记索引执行注意力。如果模型配置为解码器,则此掩码在交叉注意力中使用。掩码值在 [0, 1] 中选择:
  • head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 掩码,用于使注意力模块的选定头部无效。掩码值在 [0, 1] 中选择:

    • 1 表示未掩码的头部,
    • 0 表示掩码的头部。
  • cross_attn_head_mask (torch.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 掩码,用于使交叉注意力模块的选定头部无效。掩码值在 [0, 1] 中选择:

    • 1 表示未掩码的头部,
    • 0 表示掩码的头部。
  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选,在传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 元组,每个元组都有 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量) 和 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。只有在模型用作序列到序列模型中的解码器时才需要这两个额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可以用于(参见 past_key_values 输入)加速顺序解码。

    如果使用 past_key_values,用户可以选择只输入形状为 (batch_size, 1) 的最后一个 decoder_input_ids(那些没有向此模型提供过去键值状态的)而不是形状为 (batch_size, sequence_length) 的所有 decoder_input_ids

  • labels (torch.LongTensor 形状为 (batch_size, sequence_length), 可选) — 用于计算掩码语言建模损失的标签。索引应在 [0, ..., config.vocab_size] 或 -100 之间(参见 input_ids 文档字符串)。索引设置为 -100 的令牌将被忽略(掩码),损失仅针对标签在 [0, ..., config.vocab_size] 中的令牌计算。
  • use_cache (bool, 可选) — 如果设置为 True,则会返回 past_key_values 键值状态,可用于加速解码(参见 past_key_values)。

    • 1 表示未掩码的令牌,
    • 0 表示掩码的令牌。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput 而不是一个简单的元组。

返回

transformers.modeling_outputs.CausalLMOutputWithCrossAttentionstuple(torch.FloatTensor)

一个 transformers.modeling_outputs.CausalLMOutputWithCrossAttentionstorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置(MarianConfig)和输入而不同的各种元素。

  • loss (torch.FloatTensor 形状为 (1,), 可选,在提供 labels 时返回) — 语言建模损失(用于下一个令牌预测)。

  • logits (torch.FloatTensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前的每个词汇标记的分数)。

  • hidden_states (tuple(torch.FloatTensor), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出,如果模型具有嵌入层,加上每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层的输出处的隐藏状态,加上可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组(每个层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    交叉注意力 softmax 后的交叉注意力权重,用于计算交叉注意力头中的加权平均值。

  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选,在传递 use_cache=Trueconfig.use_cache=True 时返回) — torch.FloatTensor 元组的元组,长度为 config.n_layers,每个元组包含自注意力的缓存键、值状态,以及如果模型用于编码器-解码器设置的交叉注意力层。仅当 config.is_decoder = True 时才相关。

    包含预先计算的隐藏状态(注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

示例

>>> from transformers import AutoTokenizer, MarianForCausalLM

>>> tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-fr-en")
>>> model = MarianForCausalLM.from_pretrained("Helsinki-NLP/opus-mt-fr-en", add_cross_attention=False)
>>> assert model.config.is_decoder, f"{model.__class__} has to be configured as a decoder."
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)

>>> logits = outputs.logits
>>> expected_shape = [1, inputs.input_ids.shape[-1], model.config.vocab_size]
>>> list(logits.shape) == expected_shape
True
TensorFlow
隐藏 TensorFlow 内容

TFMarianModel

class transformers.TFMarianModel

< >

( config: MarianConfig *inputs **kwargs )

参数

  • config (MarianConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

仅输出原始隐藏状态的裸MARIAN模型,没有任何特定的头部。此模型继承自 TFPreTrainedModel。检查超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入的大小、修剪头部等)。

此模型也是 keras.Model 子类。将其用作常规的 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的方面。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的​​方法时,事情应该“正常工作”——只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在像 fit()predict() 这样的 Keras 方法之外使用第二种格式,例如在使用 Keras Functional API 创建自己的层或模型时,您可以使用三种方法来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 的单个张量,没有其他内容:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,按照文档字符串中给出的顺序排列:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 包含一个或多个与文档字符串中给出的输入名称关联的输入张量的字典:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些问题,因为您可以像对任何其他 Python 函数那样传递输入!

调用

< >

( input_ids: tf.Tensor | None = None attention_mask: tf.Tensor | None = None decoder_input_ids: tf.Tensor | None = None decoder_attention_mask: tf.Tensor | None = None decoder_position_ids: tf.Tensor | None = None head_mask: tf.Tensor | None = None decoder_head_mask: tf.Tensor | None = None cross_attn_head_mask: tf.Tensor | None = None encoder_outputs: tf.Tensor | None = None past_key_values: Tuple[Tuple[tf.Tensor]] | None = None inputs_embeds: tf.Tensor | None = None decoder_inputs_embeds: tf.Tensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None training: bool = False **kwargs ) transformers.modeling_tf_outputs.TFSeq2SeqModelOutputtuple(tf.Tensor)

参数

  • input_ids (tf.Tensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (tf.Tensor 形状为 (batch_size, sequence_length), 可选) — 避免对填充标记索引执行注意力的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示**未屏蔽**的标记,
    • 0 表示**屏蔽**的标记。

    什么是注意力掩码?

  • decoder_input_ids (tf.Tensor 形状为 (batch_size, target_sequence_length), 可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Marian 使用 pad_token_id 作为 decoder_input_ids 生成的起始标记。如果使用 past_key_values,则可以选择仅输入最后一个 decoder_input_ids(请参阅 past_key_values)。

  • decoder_attention_mask (tf.Tensor 形状为 (batch_size, target_sequence_length), 可选) — 将默认情况下创建并忽略填充标记。对于大多数用例来说,不建议设置此参数。
  • decoder_position_ids (tf.Tensor 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个解码器输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • head_mask (tf.Tensor 形状为 (encoder_layers, encoder_attention_heads), 可选) — 用于在编码器中的注意力模块中使选定头部失效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩盖,
    • 0 表示头部被掩盖.
  • decoder_head_mask (tf.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 用于在解码器中的注意力模块中使选定头部失效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩盖,
    • 0 表示头部被掩盖.
  • cross_attn_head_mask (tf.Tensor 形状为 (decoder_layers, decoder_attention_heads), 可选) — 用于在交叉注意力模块中使选定头部失效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩盖,
    • 0 表示头部被掩盖.
  • encoder_outputs (tf.FloatTensor, 可选) — 编码器最后一层输出的隐藏状态。用于解码器的交叉注意力。形状为 (batch_size, sequence_length, hidden_size) 的是一个序列
  • past_key_values (Tuple[Tuple[tf.Tensor]] 长度为 config.n_layers) — 包含注意力块的预计算键和值隐藏状态。可用于加速解码。如果使用 past_key_values,用户可以选择仅输入最后一个 decoder_input_ids (那些没有被提供给该模型的过去键值状态) 形状为 (batch_size, 1),而不是所有 decoder_input_ids 形状为 (batch_size, sequence_length).
  • inputs_embeds (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵对如何将 input_ids 索引转换为关联向量有更多控制,这将很有用。
  • use_cache (bool, 可选, 默认为 True) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码 (参见 past_key_values)。在训练期间设置为 False,在生成期间设置为 True.
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量中的 attentions。此参数只能在急切模式下使用,在图形模式下,将使用配置中的值。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量中的 hidden_states。此参数只能在急切模式下使用,在图形模式下,将使用配置中的值。
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput 而不是一个简单的元组。此参数可以在急切模式下使用,在图模式下,该值将始终设置为 True。
  • training (bool, 可选, 默认为 False) — 是否以训练模式使用模型(某些模块,例如 dropout 模块,在训练和评估之间具有不同的行为)。

返回

transformers.modeling_tf_outputs.TFSeq2SeqModelOutputtuple(tf.Tensor)

一个 transformers.modeling_tf_outputs.TFSeq2SeqModelOutputtf.Tensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (MarianConfig) 和输入的各种元素。

  • last_hidden_state (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型解码器最后一层输出处的隐藏状态序列。

    如果使用 past_key_values,则仅输出形状为 (batch_size, 1, hidden_size) 的序列的最后一个隐藏状态。

  • past_key_values (List[tf.Tensor], 可选, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 长度为 config.n_layerstf.Tensor 列表,每个张量形状为 (2, batch_size, num_heads, sequence_length, embed_size_per_head)).

    包含解码器的预计算隐藏状态(注意块中的键和值),这些隐藏状态可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(tf.Tensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 的元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • decoder_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出处的隐藏状态序列。

  • encoder_hidden_states (tuple(tf.Tensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 的元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • encoder_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

TFMarianModel 正向方法,覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFMarianModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> model = TFMarianModel.from_pretrained("Helsinki-NLP/opus-mt-en-de")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)

>>> last_hidden_states = outputs.last_hidden_state

TFMarianMTModel

class transformers.TFMarianMTModel

< >

( config *inputs **kwargs )

参数

  • config (MarianConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

具有语言建模头的 MARIAN 模型。可用于摘要。此模型继承自 TFPreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。

此模型也是 keras.Model 子类。将其用作常规的 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的方面。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的​​方法时,事情应该“正常工作”——只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在像 fit()predict() 这样的 Keras 方法之外使用第二种格式,例如在使用 Keras Functional API 创建自己的层或模型时,您可以使用三种方法来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 的单个张量,没有其他内容:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,按照文档字符串中给出的顺序排列:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 包含一个或多个与文档字符串中给出的输入名称关联的输入张量的字典:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些问题,因为您可以像对任何其他 Python 函数那样传递输入!

调用

< >

( input_ids: tf.Tensor | None = None attention_mask: tf.Tensor | None = None decoder_input_ids: tf.Tensor | None = None decoder_attention_mask: tf.Tensor | None = None decoder_position_ids: tf.Tensor | None = None head_mask: tf.Tensor | None = None decoder_head_mask: tf.Tensor | None = None cross_attn_head_mask: tf.Tensor | None = None encoder_outputs: TFBaseModelOutput | None = None past_key_values: Tuple[Tuple[tf.Tensor]] | None = None inputs_embeds: tf.Tensor | None = None decoder_inputs_embeds: tf.Tensor | None = None use_cache: bool | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None labels: tf.Tensor | None = None training: bool = False ) transformers.modeling_tf_outputs.TFSeq2SeqLMOutput or tuple(tf.Tensor)

参数

  • input_ids (tf.Tensor 形状为 ({0})) — 输入序列词元的词典索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (tf.Tensor 形状为 ({0}), 可选) — 避免对填充词元索引执行注意力掩码。掩码值从 [0, 1] 中选择:

    • 1 表示 未被掩码 的词元,
    • 0 表示 被掩码 的词元。

    什么是注意力掩码?

  • decoder_input_ids (tf.Tensor 形状为 (batch_size, target_sequence_length), 可选) — 解码器输入序列词元的词典索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    Marian 使用 pad_token_id 作为 decoder_input_ids 生成的起始词元。如果使用 past_key_values,则可以选择仅输入最后一个 decoder_input_ids(请参阅 past_key_values)。

  • decoder_attention_mask (tf.Tensor 形状为 (batch_size, target_sequence_length), 可选) — 将默认生成,并忽略填充词元。不建议在大多数用例中设置此参数。
  • decoder_position_ids (tf.Tensor 形状为 (batch_size, sequence_length), 可选) — 解码器输入序列词元在位置嵌入中的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • head_mask (tf.Tensor 形状为 (encoder_layers, encoder_attention_heads), 可选) — 用于使编码器中注意力模块的选定头部失效的掩码。掩码值从 [0, 1] 中选择:

    • 1 表示 未被掩码 的头部,
    • 0 表示 被掩码 的头部。
  • decoder_head_mask (tf.Tensor 形状为 (decoder_layers, decoder_attention_heads)可选) — 用于使解码器中注意力模块的选定头部失效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩码
    • 0 表示头部被掩码
  • cross_attn_head_mask (tf.Tensor 形状为 (decoder_layers, decoder_attention_heads)可选) — 用于使交叉注意力模块的选定头部失效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩码
    • 0 表示头部被掩码
  • encoder_outputs (tf.FloatTensor可选) — 编码器最后一层输出的隐藏状态。用于解码器的交叉注意力。形状为 (batch_size, sequence_length, hidden_size) 的一个序列
  • past_key_values (长度为 config.n_layersTuple[Tuple[tf.Tensor]]) — 包含注意力块的预计算键和值隐藏状态。可用于加速解码。如果使用 past_key_values,用户可以选择仅输入最后一个 decoder_input_ids(那些没有提供其过去键值状态的模型)形状为 (batch_size, 1),而不是所有 decoder_input_ids 形状为 (batch_size, sequence_length)
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)tf.Tensor可选) — 可选地,您也可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对如何将 input_ids 索引转换为关联向量(而不是模型的内部嵌入查找矩阵)有更多控制,这将非常有用。
  • use_cache (bool可选,默认为 True) — 如果设置为 True,则返回 past_key_values 键值状态,可用于加速解码(参见 past_key_values)。在训练期间设置为 False,在生成期间设置为 True
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的 attentions。此参数仅可在急切模式下使用,在图形模式下,将使用配置中的值。
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的 hidden_states。此参数仅可在急切模式下使用,在图形模式下,将使用配置中的值。
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。此参数可在急切模式下使用,在图形模式下,该值将始终设置为 True。
  • training (bool可选,默认为 False) — 是否以训练模式使用模型(某些模块,例如 dropout 模块,在训练和评估之间具有不同的行为)。labels (tf.tensor 形状为 (batch_size, sequence_length), 可选) — 用于计算掩码语言建模损失的标签。索引应在 [0, ..., config.vocab_size] 或 -100 中(参见 input_ids 文档字符串)。索引设置为 -100 的令牌将被忽略(掩码),损失仅针对标签在 [0, ..., config.vocab_size] 中的令牌计算。

返回

transformers.modeling_tf_outputs.TFSeq2SeqLMOutputtuple(tf.Tensor)

一个 transformers.modeling_tf_outputs.TFSeq2SeqLMOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (MarianConfig) 和输入的不同元素。

  • loss (tf.Tensor 形状为 (n,), 可选, 其中 n 是非掩码标签的数量,在提供 labels 时返回) — 语言建模损失。

  • logits (tf.Tensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前的每个词汇表令牌的分数)。

  • past_key_values (List[tf.Tensor], 可选, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 长度为 config.n_layerstf.Tensor 列表,每个张量形状为 (2, batch_size, num_heads, sequence_length, embed_size_per_head)).

    包含解码器的预计算隐藏状态(注意块中的键和值),这些隐藏状态可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(tf.Tensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 的元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • decoder_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出处的隐藏状态序列。

  • encoder_hidden_states (tuple(tf.Tensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 的元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • encoder_attentions (tuple(tf.Tensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

The TFMarianMTModel forward 方法,覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

marian-nmt 的 transformer.h (c++) 的 TF 版本。专为 OPUS-NMT 翻译检查点设计。可用的模型列在 这里.

示例

>>> from transformers import AutoTokenizer, TFMarianMTModel
>>> from typing import List

>>> src = "fr"  # source language
>>> trg = "en"  # target language
>>> sample_text = "où est l'arrêt de bus ?"
>>> model_name = f"Helsinki-NLP/opus-mt-{src}-{trg}"

>>> model = TFMarianMTModel.from_pretrained(model_name)
>>> tokenizer = AutoTokenizer.from_pretrained(model_name)
>>> batch = tokenizer([sample_text], return_tensors="tf")
>>> gen = model.generate(**batch)
>>> tokenizer.batch_decode(gen, skip_special_tokens=True)
"Where is the bus stop ?"
JAX
隐藏 JAX 内容

FlaxMarianModel

class transformers.FlaxMarianModel

< >

( config: MarianConfig input_shape: Tuple = (1, 1) seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (MarianConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。
  • dtype (jax.numpy.dtype, 可选, 默认值为 jax.numpy.float32) — 计算的数据类型。可以是 jax.numpy.float32jax.numpy.float16(在 GPU 上)和 jax.numpy.bfloat16(在 TPU 上)之一。

    这可以用于在 GPU 或 TPU 上启用混合精度训练或半精度推理。如果指定,所有计算将使用给定的 dtype 执行。

    注意,这仅指定计算的 dtype,不影响模型参数的 dtype。

    如果您希望更改模型参数的 dtype,请参见 to_fp16()to_bf16().

不带任何特定头的 Marian 模型转换器,输出原始隐藏状态。此模型继承自 FlaxPreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。

此模型也是 Flax Linen flax.nn.Module 子类。将其用作常规的 Flax 模块,并参考 Flax 文档以了解与一般用法和行为相关的所有内容。

最后,此模型支持 JAX 的固有特性,例如

__call__

< >

( input_ids: 数组 attention_mask: 可选 = None decoder_input_ids: 可选 = None decoder_attention_mask: 可选 = None position_ids: 可选 = None decoder_position_ids: 可选 = None output_attentions: 可选 = None output_hidden_states: 可选 = None return_dict: 可选 = None train: bool = False params: 字典 = None dropout_rng: PRNGKey = None ) transformers.modeling_flax_outputs.FlaxSeq2SeqModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (jnp.ndarray 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (jnp.ndarray 形状为 (batch_size, sequence_length), 可选) — 避免对填充标记索引执行注意的掩码。在 [0, 1] 中选择掩码值:

    • 1 表示未掩码的标记,
    • 0 表示掩码的标记。

    什么是注意力掩码?

  • decoder_input_ids (jnp.ndarray 形状为 (batch_size, target_sequence_length), 可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    对于翻译和摘要训练,应提供 decoder_input_ids。如果未提供 decoder_input_ids,模型将通过将 input_ids 向右移动来创建此张量,以遵循论文对去噪预训练进行预训练。

  • decoder_attention_mask (jnp.ndarray 形状为 (batch_size, target_sequence_length), 可选) — 默认行为:生成一个忽略 decoder_input_ids 中填充标记的张量。默认情况下,还会使用因果掩码。

    如果您想更改填充行为,则应根据您的需要进行修改。有关默认策略的更多信息,请参阅 论文 中的图表 1。

  • position_ids (numpy.ndarray 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • decoder_position_ids (numpy.ndarray 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个解码器输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput 而不是一个简单的元组。

返回

transformers.modeling_flax_outputs.FlaxSeq2SeqModelOutputtuple(torch.FloatTensor)

一个 transformers.modeling_flax_outputs.FlaxSeq2SeqModelOutput 或者一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (MarianConfig) 和输入的不同元素。

  • last_hidden_state (jnp.ndarray 形状为 (batch_size, sequence_length, hidden_size)) — 模型解码器最后一层输出的隐藏状态序列。

    如果使用 past_key_values,则仅输出形状为 (batch_size, 1, hidden_size) 的序列的最后一个隐藏状态。

  • past_key_values (tuple(tuple(jnp.ndarray)), 可选,在传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(jnp.ndarray) 元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量) 和两个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(jnp.ndarray), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — jnp.ndarray 元组(一个用于嵌入输出 + 一个用于每一层输出) 形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • decoder_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (jnp.ndarray 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(jnp.ndarray), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — jnp.ndarray 元组(一个用于嵌入输出 + 一个用于每一层输出) 形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • encoder_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

FlaxMarianPreTrainedModel 的正向方法,覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, FlaxMarianModel

>>> tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> model = FlaxMarianModel.from_pretrained("Helsinki-NLP/opus-mt-en-de")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="jax")
>>> outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state

FlaxMarianMTModel

class transformers.FlaxMarianMTModel

< >

( config: MarianConfig input_shape: Tuple = (1, 1) seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (MarianConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只加载配置。查看 from_pretrained() 方法以加载模型权重。
  • dtype (jax.numpy.dtype, 可选,默认值为 jax.numpy.float32) — 计算的数据类型。可以是 jax.numpy.float32jax.numpy.float16(在 GPU 上)和 jax.numpy.bfloat16(在 TPU 上)之一。

    这可以用于启用混合精度训练或在 GPU 或 TPU 上进行半精度推断。如果指定了,所有计算都将使用给定的 dtype 执行。

    注意,这只会指定计算的 dtype,不会影响模型参数的 dtype

    如果您希望更改模型参数的 dtype,请参见 to_fp16()to_bf16().

带有语言建模头的 MARIAN 模型。可用于翻译。此模型继承自 FlaxPreTrainedModel。查看超类文档,了解库为所有模型实现的通用方法(如下载或保存、调整输入嵌入大小、裁剪头等)。

此模型也是 Flax Linen flax.nn.Module 子类。将其用作常规的 Flax 模块,并参考 Flax 文档以了解与一般用法和行为相关的所有内容。

最后,此模型支持 JAX 的固有特性,例如

__call__

< >

( input_ids: 数组 attention_mask: 可选 = None decoder_input_ids: 可选 = None decoder_attention_mask: 可选 = None position_ids: 可选 = None decoder_position_ids: 可选 = None output_attentions: 可选 = None output_hidden_states: 可选 = None return_dict: 可选 = None train: 布尔值 = False params: 字典 = None dropout_rng: PRNGKey = None ) transformers.modeling_flax_outputs.FlaxSeq2SeqLMOutput元组(torch.FloatTensor)

参数

  • input_ids (jnp.ndarray 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (jnp.ndarray 形状为 (batch_size, sequence_length), 可选) — 掩码以避免对填充标记索引执行注意力。在 [0, 1] 中选择的掩码值:

    • 1 用于未掩码的标记,
    • 0 用于掩码的标记。

    什么是注意力掩码?

  • decoder_input_ids (jnp.ndarray 形状为 (batch_size, target_sequence_length), 可选) — 词汇表中解码器输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是解码器输入 ID?

    对于翻译和摘要训练,应提供 decoder_input_ids。如果没有提供 decoder_input_ids,模型将通过将 input_ids 向右移动来创建此张量,以按照论文进行去噪预训练。

  • decoder_attention_mask (jnp.ndarray 形状为 (batch_size, target_sequence_length), 可选) — 默认行为:生成一个张量,忽略 decoder_input_ids 中的填充标记。因果掩码默认情况下也将使用。

    如果您想更改填充行为,则应根据您的需求进行修改。有关默认策略的更多信息,请参见 论文 中的图表 1。

  • position_ids (numpy.ndarray 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • decoder_position_ids (numpy.ndarray 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个解码器输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。
  • output_attentions (布尔值, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.modeling_flax_outputs.FlaxSeq2SeqLMOutputtuple(torch.FloatTensor)

一个 transformers.modeling_flax_outputs.FlaxSeq2SeqLMOutput 或者一个 torch.FloatTensor 元组(如果传递了 return_dict=Falseconfig.return_dict=False 时),包含取决于配置 (MarianConfig) 和输入的不同元素。

  • logits (jnp.ndarray 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前的每个词汇表标记的分数)。

  • past_key_values (tuple(tuple(jnp.ndarray)), 可选,在传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(jnp.ndarray) 元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量) 和两个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的额外张量。

    包含预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • decoder_hidden_states (tuple(jnp.ndarray), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — jnp.ndarray 元组(一个用于嵌入输出 + 一个用于每一层输出) 形状为 (batch_size, sequence_length, hidden_size)

    解码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • decoder_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器的交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • encoder_last_hidden_state (jnp.ndarray 形状为 (batch_size, sequence_length, hidden_size), 可选) — 模型编码器最后一层输出的隐藏状态序列。

  • encoder_hidden_states (tuple(jnp.ndarray), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — jnp.ndarray 元组(一个用于嵌入输出 + 一个用于每一层输出) 形状为 (batch_size, sequence_length, hidden_size)

    编码器在每一层输出处的隐藏状态,加上初始嵌入输出。

  • encoder_attentions (tuple(jnp.ndarray), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — jnp.ndarray 元组(每一层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length)

    编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头的加权平均值。

FlaxMarianPreTrainedModel 的正向方法,覆盖了 __call__ 特殊方法。

虽然正向传递的配方需要在这个函数中定义,但之后应该调用 Module 实例,而不是这个函数,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, FlaxMarianMTModel

>>> model = FlaxMarianMTModel.from_pretrained("Helsinki-NLP/opus-mt-en-de")
>>> tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")

>>> text = "My friends are cool but they eat too many carbs."
>>> input_ids = tokenizer(text, max_length=64, return_tensors="jax").input_ids

>>> sequences = model.generate(input_ids, max_length=64, num_beams=2).sequences

>>> outputs = tokenizer.batch_decode(sequences, skip_special_tokens=True)
>>> # should give *Meine Freunde sind cool, aber sie essen zu viele Kohlenhydrate.*
< > 在 GitHub 上更新