Transformers 文档

XLNet

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

XLNet

PyTorch TensorFlow

概述

XLNet 模型由 Zhilin Yang、Zihang Dai、Yiming Yang、Jaime Carbonell、Ruslan Salakhutdinov 和 Quoc V. Le 在 XLNet: Generalized Autoregressive Pretraining for Language Understanding 中提出。XLNet 是 Transformer-XL 模型的扩展,使用自回归方法进行预训练,通过最大化输入序列分解顺序的所有排列的预期似然来学习双向上下文。

论文摘要如下:

基于去噪自编码的预训练方法(如 BERT)具有建模双向上下文的能力,因此其性能优于基于自回归语言建模的预训练方法。然而,BERT 依赖于用掩码破坏输入,忽略了掩码位置之间的依赖关系,并存在预训练-微调不匹配的问题。鉴于这些优缺点,我们提出了 XLNet,一种广义自回归预训练方法,它 (1) 通过最大化分解顺序的所有排列的预期似然来学习双向上下文,并且 (2) 由于其自回归公式,克服了 BERT 的局限性。此外,XLNet 将 Transformer-XL(最先进的自回归模型)的思想整合到预训练中。经验证明,在可比较的实验设置下,XLNet 在 20 项任务中(包括问答、自然语言推理、情感分析和文档排序)的性能均优于 BERT,通常是大幅超越。

此模型由 thomwolf 贡献。原始代码可在此处找到。

使用技巧

  • 特定的注意力模式可以在训练和测试时使用 perm_mask 输入进行控制。
  • 由于在各种分解顺序上训练一个完全自回归模型存在困难,XLNet 仅使用部分输出 token 作为目标进行预训练,这些 token 是通过 target_mapping 输入选择的。
  • 要将 XLNet 用于顺序解码(即非完全双向设置),请使用 perm_masktarget_mapping 输入来控制注意力范围和输出(请参阅 *examples/pytorch/text-generation/run_generation.py* 中的示例)
  • XLNet 是少数没有序列长度限制的模型之一。
  • XLNet 不是传统的自回归模型,但它使用了一种基于此的训练策略。它会对句子中的 token 进行排列,然后允许模型使用最后 n 个 token 来预测第 n+1 个 token。由于所有这些都是通过掩码完成的,因此句子实际上是按正确顺序输入到模型中的,但 XLNet 不会掩盖前 n 个 token 以预测 n+1,而是使用一个掩码来隐藏给定排列 1, ..., 序列长度中前面的 token。
  • XLNet 还使用与 Transformer-XL 相同的循环机制来建立长期依赖关系。

资源

XLNetConfig

class transformers.XLNetConfig

< >

( vocab_size = 32000 d_model = 1024 n_layer = 24 n_head = 16 d_inner = 4096 ff_activation = 'gelu' untie_r = True attn_type = 'bi' initializer_range = 0.02 layer_norm_eps = 1e-12 dropout = 0.1 mem_len = 512 reuse_len = None use_mems_eval = True use_mems_train = False bi_data = False clamp_len = -1 same_length = False summary_type = 'last' summary_use_proj = True summary_activation = 'tanh' summary_last_dropout = 0.1 start_n_top = 5 end_n_top = 5 pad_token_id = 5 bos_token_id = 1 eos_token_id = 2 **kwargs )

参数

  • vocab_size (int, 可选, 默认为 32000) — XLNet 模型的词汇表大小。定义了调用 XLNetModelTFXLNetModel 时传递的 inputs_ids 可以表示的不同 token 的数量。
  • d_model (int, 可选, 默认为 1024) — 编码器层和池化器层的维度。
  • n_layer (int, 可选, 默认为 24) — Transformer 编码器中的隐藏层数量。
  • n_head (int, 可选, 默认为 16) — Transformer 编码器中每个注意力层的注意力头数量。
  • d_inner (int, 可选, 默认为 4096) — Transformer 编码器中“中间”(通常称为前馈)层的维度。
  • ff_activation (strCallable, 可选, 默认为 "gelu") — 非线性激活函数(函数或字符串)。如果是字符串,支持 "gelu""relu""silu""gelu_new"
  • untie_r (bool, 可选, 默认为 True) — 是否取消相对位置偏差的绑定。
  • attn_type (str, 可选, 默认为 "bi") — 模型使用的注意力类型。XLNet 设置为 "bi",Transformer-XL 设置为 "uni"
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态分布初始化器的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-12) — 层归一化层使用的 epsilon 值。
  • dropout (float, 可选, 默认为 0.1) — 嵌入层、编码器和池化器中所有全连接层的 dropout 概率。
  • mem_len (intNone, 可选) — 缓存的 token 数量。在之前的正向传播中已经预计算的键/值对不会重新计算。有关更多信息,请参阅快速入门
  • reuse_len (int, 可选) — 当前批次中要缓存并在将来重用的 token 数量。
  • bi_data (bool, 可选, 默认为 False) — 是否使用双向输入管道。通常在预训练期间设置为 True,在微调期间设置为 False
  • clamp_len (int, 可选, 默认为 -1) — 限制所有相对距离大于 clamp_len。将此属性设置为 -1 表示不进行限制。
  • same_length (bool, 可选, 默认为 False) — 是否对每个 token 使用相同的注意力长度。
  • summary_type (str, 可选, 默认为 “last”) — 序列摘要时使用的参数。在序列分类和多项选择模型中使用。

    必须是以下选项之一:

    • "last":取最后一个 token 的隐藏状态(如 XLNet)。
    • "first":取第一个 token 的隐藏状态(如 BERT)。
    • "mean":取所有 token 隐藏状态的平均值。
    • "cls_index":提供分类 token 位置的张量(如 GPT/GPT-2)。
    • "attn":目前未实现,使用多头注意力。
  • summary_use_proj (bool, 可选, 默认为 True) — 序列摘要时使用的参数。在序列分类和多项选择模型中使用。

    向量提取后是否添加投影。

  • summary_activation (str, 可选) — 序列摘要时使用的参数。在序列分类和多项选择模型中使用。

    如果输出需要 tanh 激活,则传递 "tanh",任何其他值将导致没有激活。

  • summary_proj_to_labels (boo, 可选, 默认为 True) — 在序列分类和多项选择模型中使用。

    投影输出应具有 config.num_labelsconfig.hidden_size 类。

  • summary_last_dropout (float, 可选, 默认为 0.1) — 在序列分类和多项选择模型中使用。

    投影和激活后使用的 dropout 比率。

  • start_n_top (int, 可选, 默认为 5) — 在 SQuAD 评估脚本中使用。
  • end_n_top (int, 可选, 默认为 5) — 用于 SQuAD 评估脚本中。
  • use_mems_eval (bool, 可选, 默认为 True) — 模型在评估模式下是否使用循环记忆机制。
  • use_mems_train (bool, 可选, 默认为 False) — 模型在训练模式下是否使用循环记忆机制。

    对于预训练,建议将 use_mems_train 设置为 True。对于微调,建议将 use_mems_train 设置为 False,如 此处 所述。如果 use_mems_train 设置为 True,则必须确保训练批次已正确预处理,例如 batch_1 = [[This line is], [This is the]]batch_2 = [[ the first line], [ second line]],并且所有批次的大小都相等。

这是一个配置类,用于存储 XLNetModelTFXLNetModel 的配置。它用于根据指定的参数实例化 XLNet 模型,定义模型架构。使用默认值实例化配置将产生类似于 xlnet/xlnet-large-cased 架构的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关这些方法的更多信息,请参阅 PretrainedConfig 的文档。

示例

>>> from transformers import XLNetConfig, XLNetModel

>>> # Initializing a XLNet configuration
>>> configuration = XLNetConfig()

>>> # Initializing a model (with random weights) from the configuration
>>> model = XLNetModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

XLNetTokenizer

transformers.XLNetTokenizer

< >

( vocab_file do_lower_case = False remove_space = True keep_accents = False bos_token = '<s>' eos_token = '</s>' unk_token = '<unk>' sep_token = '<sep>' pad_token = '<pad>' cls_token = '<cls>' mask_token = '<mask>' additional_special_tokens = ['<eop>', '<eod>'] sp_model_kwargs: typing.Optional[dict[str, typing.Any]] = None **kwargs )

参数

  • vocab_file (str) — SentencePiece 文件(通常以 .spm 扩展名结尾),包含实例化分词器所需的词汇表。
  • do_lower_case (bool, 可选, 默认为 False) — 分词时是否将输入转换为小写。
  • remove_space (bool, 可选, 默认为 True) — 分词时是否去除文本中的空格(删除字符串前后多余的空格)。
  • keep_accents (bool, 可选, 默认为 False) — 分词时是否保留重音符号。
  • bos_token (str, 可选, 默认为 "<s>") — 预训练期间使用的序列开始符。可用作序列分类标记。

    使用特殊标记构建序列时,这不是序列开头使用的标记。使用的标记是 cls_token

  • eos_token (str, 可选, 默认为 "</s>") — 序列结束符。

    使用特殊标记构建序列时,这不是序列结尾使用的标记。使用的标记是 sep_token

  • unk_token (str, 可选, 默认为 "<unk>") — 未知标记。不在词汇表中的标记不能转换为 ID,而是设置为此标记。
  • sep_token (str, 可选, 默认为 "<sep>") — 分隔符标记,用于从多个序列构建序列时,例如用于序列分类的两个序列或用于问答的文本和问题。它也用作使用特殊标记构建的序列的最后一个标记。
  • pad_token (str, 可选, 默认为 "<pad>") — 用于填充的标记,例如在对不同长度的序列进行批处理时。
  • cls_token (str, 可选, 默认为 "<cls>") — 分类器标记,用于序列分类(对整个序列进行分类而非按标记分类)。它是使用特殊标记构建的序列的第一个标记。
  • mask_token (str, 可选, 默认为 "<mask>") — 用于遮盖值的标记。这是使用遮盖语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • additional_special_tokens (list[str], 可选, 默认为 ['<eop>', '<eod>']) — 分词器使用的附加特殊标记。
  • sp_model_kwargs (dict, 可选) — 将传递给 SentencePieceProcessor.__init__() 方法。可用于设置 SentencePiece 的 Python 包装器,其中包括:

    • enable_sampling: 启用子词正则化。

    • nbest_size: Unigram 的采样参数。对于 BPE-Dropout 无效。

      • nbest_size = {0,1}: 不执行采样。
      • nbest_size > 1: 从 nbest_size 结果中采样。
      • nbest_size < 0: 假设 nbest_size 无限,并使用前向滤波和后向采样算法从所有假设(格)中采样。
    • alpha: Unigram 采样的平滑参数,以及 BPE-dropout 中合并操作的 dropout 概率。

  • sp_model (SentencePieceProcessor) — 用于所有转换(字符串、标记和 ID)的 SentencePiece 处理器。

构建 XLNet 分词器。基于 SentencePiece

此分词器继承自 PreTrainedTokenizer,其中包含大部分主要方法。用户应参阅此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — 要添加特殊标记的 ID 列表。
  • token_ids_1 (list[int], 可选) — 序列对的第二个 ID 列表(可选)。

返回

list[int]

带有适当特殊标记的输入ID列表。

通过拼接和添加特殊标记,从序列或序列对构建用于序列分类任务的模型输入。XLNet 序列具有以下格式

  • 单个序列:X <sep> <cls>
  • 序列对:A <sep> B <sep> <cls>

get_special_tokens_mask

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None already_has_special_tokens: bool = False ) list[int]

参数

  • token_ids_0 (list[int]) — ID 列表。
  • token_ids_1 (list[int], 可选) — 序列对的第二个 ID 列表(可选)。
  • already_has_special_tokens (bool, 可选, 默认为 False) — 标记列表是否已使用模型的特殊标记进行格式化。

返回

list[int]

一个范围为 [0, 1] 的整数列表:1 表示特殊标记,0 表示序列标记。

从没有添加特殊标记的标记列表中检索序列ID。此方法在使用分词器prepare_for_model方法添加特殊标记时调用。

create_token_type_ids_from_sequences

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — ID 列表。
  • token_ids_1 (list[int], 可选) — 序列对的第二个 ID 列表(可选)。

返回

list[int]

根据给定序列的 token type IDs 列表。

从传递的两个序列创建用于序列对分类任务的掩码。一个 XLNet

如果 token_ids_1None,则此方法仅返回掩码的第一部分(0s)。

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1None,则此方法仅返回掩码的第一部分(0s)。

save_vocabulary

< >

( save_directory: str filename_prefix: typing.Optional[str] = None )

XLNetTokenizerFast

transformers.XLNetTokenizerFast

< >

( vocab_file = None tokenizer_file = None do_lower_case = False remove_space = True keep_accents = False bos_token = '<s>' eos_token = '</s>' unk_token = '<unk>' sep_token = '<sep>' pad_token = '<pad>' cls_token = '<cls>' mask_token = '<mask>' additional_special_tokens = ['<eop>', '<eod>'] **kwargs )

参数

  • vocab_file (str) — SentencePiece 文件(通常以 .spm 扩展名结尾),包含实例化分词器所需的词汇表。
  • do_lower_case (bool, 可选, 默认为 True) — 分词时是否将输入转换为小写。
  • remove_space (bool, 可选, 默认为 True) — 分词时是否去除文本中的空格(删除字符串前后多余的空格)。
  • keep_accents (bool, 可选, 默认为 False) — 分词时是否保留重音符号。
  • bos_token (str, 可选, 默认为 "<s>") — 预训练期间使用的序列开始符。可用作序列分类标记。

    使用特殊标记构建序列时,这不是序列开头使用的标记。使用的标记是 cls_token

  • eos_token (str, 可选, 默认为 "</s>") — 序列结束符。

    使用特殊标记构建序列时,这不是序列结尾使用的标记。使用的标记是 sep_token

  • unk_token (str, 可选, 默认为 "<unk>") — 未知标记。不在词汇表中的标记不能转换为 ID,而是设置为此标记。
  • sep_token (str, 可选, 默认为 "<sep>") — 分隔符标记,用于从多个序列构建序列时,例如用于序列分类的两个序列或用于问答的文本和问题。它也用作使用特殊标记构建的序列的最后一个标记。
  • pad_token (str, 可选, 默认为 "<pad>") — 用于填充的标记,例如在对不同长度的序列进行批处理时。
  • cls_token (str, 可选, 默认为 "<cls>") — 分类器标记,用于序列分类(对整个序列进行分类而非按标记分类)。它是使用特殊标记构建的序列的第一个标记。
  • mask_token (str, 可选, 默认为 "<mask>") — 用于遮盖值的标记。这是使用遮盖语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • additional_special_tokens (list[str], 可选, 默认为 ["<eop>", "<eod>"]) — 分词器使用的附加特殊标记。
  • sp_model (SentencePieceProcessor) — 用于所有转换(字符串、标记和 ID)的 SentencePiece 处理器。

构建一个“快速”XLNet 分词器(由 HuggingFace 的 tokenizers 库支持)。基于 Unigram

此分词器继承自 PreTrainedTokenizerFast,其中包含大部分主要方法。用户应参阅此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — 要添加特殊标记的 ID 列表。
  • token_ids_1 (list[int], 可选) — 序列对的第二个 ID 列表(可选)。

返回

list[int]

带有适当特殊标记的输入ID列表。

通过拼接和添加特殊标记,从序列或序列对构建用于序列分类任务的模型输入。XLNet 序列具有以下格式

  • 单个序列:X <sep> <cls>
  • 序列对:A <sep> B <sep> <cls>

create_token_type_ids_from_sequences

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — ID 列表。
  • token_ids_1 (list[int], 可选) — 序列对的第二个 ID 列表(可选)。

返回

list[int]

根据给定序列的 token type IDs 列表。

从传递的两个序列创建用于序列对分类任务的掩码。一个 XLNet

如果 token_ids_1None,则此方法仅返回掩码的第一部分(0s)。

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1None,则此方法仅返回掩码的第一部分(0s)。

XLNet 特定输出

transformers.models.xlnet.modeling_xlnet.XLNetModelOutput

< >

( last_hidden_state: FloatTensor mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • last_hidden_state (形状为 (batch_size, num_predict, hidden_size)torch.FloatTensor) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetModel 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 语言模型损失(用于下一个token预测)。
  • logits (torch.FloatTensor of shape (batch_size, num_predict, config.vocab_size)) — 语言模型头的预测分数(SoftMax之前的每个词汇token的分数)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetLMHeadModel 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 label 时返回) — 分类(如果config.num_labels==1则为回归)损失。
  • logits (torch.FloatTensor of shape (batch_size, config.num_labels)) — 分类(如果config.num_labels==1则为回归)分数(SoftMax之前)。
  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetForSequenceClassification 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 分类损失。
  • logits (torch.FloatTensor of shape (batch_size, num_choices)) — num_choices 是输入张量的第二个维度。(请参见上面的 input_ids)。

    分类分数(SoftMax之前)。

  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetForMultipleChoice 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 分类损失。
  • logits (torch.FloatTensor of shape (batch_size, sequence_length, config.num_labels)) — 分类分数(SoftMax之前)。
  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetForTokenClassificationOutput 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None start_logits: typing.Optional[torch.FloatTensor] = None end_logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 总跨度提取损失是开始和结束位置的交叉熵损失之和。
  • start_logits (torch.FloatTensor of shape (batch_size, sequence_length,)) — 跨度起始分数(SoftMax之前)。
  • end_logits (torch.FloatTensor of shape (batch_size, sequence_length,)) — 跨度结束分数(SoftMax之前)。
  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetForQuestionAnsweringSimple 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutput

< >

( loss: typing.Optional[torch.FloatTensor] = None start_top_log_probs: typing.Optional[torch.FloatTensor] = None start_top_index: typing.Optional[torch.LongTensor] = None end_top_log_probs: typing.Optional[torch.FloatTensor] = None end_top_index: typing.Optional[torch.LongTensor] = None cls_logits: typing.Optional[torch.FloatTensor] = None mems: typing.Optional[list[torch.FloatTensor]] = None hidden_states: typing.Optional[tuple[torch.FloatTensor, ...]] = None attentions: typing.Optional[tuple[torch.FloatTensor, ...]] = None )

参数

  • loss (torch.FloatTensor of shape (1,), 可选, 当同时提供 start_positionsend_positions 时返回) — 分类损失,为起始token、结束token(如果提供则包括impossible)分类损失之和。
  • start_top_log_probs (torch.FloatTensor of shape (batch_size, config.start_n_top), 可选, 当未提供 start_positionsend_positions 时返回) — 最优 config.start_n_top 个起始token可能性的对数概率(束搜索)。
  • start_top_index (torch.LongTensor of shape (batch_size, config.start_n_top), 可选, 当未提供 start_positionsend_positions 时返回) — 最优 config.start_n_top 个起始token可能性的索引(束搜索)。
  • end_top_log_probs (torch.FloatTensor of shape (batch_size, config.start_n_top * config.end_n_top), 可选, 当未提供 start_positionsend_positions 时返回) — 最优 config.start_n_top * config.end_n_top 个结束token可能性的对数概率(束搜索)。
  • end_top_index (torch.LongTensor of shape (batch_size, config.start_n_top * config.end_n_top), 可选, 当未提供 start_positionsend_positions 时返回) — 最优 config.start_n_top * config.end_n_top 个结束token可能性的索引(束搜索)。
  • cls_logits (torch.FloatTensor of shape (batch_size,), 可选, 当未提供 start_positionsend_positions 时返回) — 答案的 is_impossible 标签的对数概率。
  • mems (list[torch.FloatTensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

XLNetForQuestionAnswering 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutput

< >

( last_hidden_state: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • last_hidden_state (tf.Tensor of shape (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (list[tf.Tensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(其中一个用于嵌入层输出,加上每个层的一个输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态,以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 当传入 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力softmax后的注意力权重,用于计算自注意力头中的加权平均。

TFXLNetModel 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutput

< >

( loss: tf.Tensor | None = None logits: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • loss (tf.Tensor of shape (1,), 可选, 当提供 labels 时返回) — 语言模型损失(用于下一个token预测)。
  • logits (tf.Tensor of shape (batch_size, num_predict, config.vocab_size)) — 语言模型头的预测分数(SoftMax之前的每个词汇token的分数)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (list[tf.Tensor] of length config.n_layers) — 包含预先计算的隐藏状态。可用于(参阅 mems 输入)加速顺序解码。已提供给此模型的历史令牌ID不应作为 input_ids 传入,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), optional, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)tf.Tensor元组(一个用于嵌入层的输出+每个层的输出各一个)。

    模型在每个层输出的隐藏状态以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), optional, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)tf.Tensor元组(每个层一个)。

    在注意力softmax之后,用于计算自注意力头中的加权平均值的注意力权重。

TFXLNetLMHeadModel的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutput

< >

( loss: tf.Tensor | None = None logits: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • loss (形状为(1,)tf.Tensor, optional, 当提供label时返回) — 分类(如果config.num_labels==1则是回归)损失。
  • logits (形状为(batch_size, config.num_labels)tf.Tensor) — 分类(如果config.num_labels==1则是回归)得分(在SoftMax之前)。
  • mems (长度为config.n_layerslist[tf.Tensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), optional, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)tf.Tensor元组(一个用于嵌入层的输出+每个层的输出各一个)。

    模型在每个层输出的隐藏状态以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), optional, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)tf.Tensor元组(每个层一个)。

    在注意力softmax之后,用于计算自注意力头中的加权平均值的注意力权重。

TFXLNetForSequenceClassification的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutput

< >

( loss: tf.Tensor | None = None logits: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • loss (形状为(1,)tf.Tensor, optional, 当提供labels时返回) — 分类损失。
  • logits (形状为(batch_size, num_choices)tf.Tensor) — num_choices是输入张量的第二维。(参见上面的input_ids)。

    分类得分(在SoftMax之前)。

  • mems (长度为config.n_layerslist[tf.Tensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), optional, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)tf.Tensor元组(一个用于嵌入层的输出+每个层的输出各一个)。

    模型在每个层输出的隐藏状态以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), optional, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)tf.Tensor元组(每个层一个)。

    在注意力softmax之后,用于计算自注意力头中的加权平均值的注意力权重。

TFXLNetForMultipleChoice的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutput

< >

( loss: tf.Tensor | None = None logits: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • loss (形状为(1,)tf.Tensor, optional, 当提供labels时返回) — 分类损失。
  • logits (形状为(batch_size, sequence_length, config.num_labels)tf.Tensor) — 分类得分(在SoftMax之前)。
  • mems (长度为config.n_layerslist[tf.Tensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), optional, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)tf.Tensor元组(一个用于嵌入层的输出+每个层的输出各一个)。

    模型在每个层输出的隐藏状态以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), optional, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)tf.Tensor元组(每个层一个)。

    在注意力softmax之后,用于计算自注意力头中的加权平均值的注意力权重。

TFXLNetForTokenClassificationOutput的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput

< >

( loss: tf.Tensor | None = None start_logits: Optional[tf.Tensor] = None end_logits: Optional[tf.Tensor] = None mems: list[tf.Tensor] | None = None hidden_states: tuple[tf.Tensor, ...] | None = None attentions: tuple[tf.Tensor, ...] | None = None )

参数

  • loss (形状为(1,)tf.Tensor, optional, 当提供labels时返回) — 总范围提取损失是起始和结束位置的交叉熵之和。
  • start_logits (形状为(batch_size, sequence_length,)tf.Tensor) — 起始范围得分(在SoftMax之前)。
  • end_logits (形状为(batch_size, sequence_length,)tf.Tensor) — 结束范围得分(在SoftMax之前)。
  • mems (长度为config.n_layerslist[tf.Tensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor), optional, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)tf.Tensor元组(一个用于嵌入层的输出+每个层的输出各一个)。

    模型在每个层输出的隐藏状态以及初始嵌入输出。

  • attentions (tuple(tf.Tensor), optional, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)tf.Tensor元组(每个层一个)。

    在注意力softmax之后,用于计算自注意力头中的加权平均值的注意力权重。

TFXLNetForQuestionAnsweringSimple的输出类型。

Pytorch
隐藏 Pytorch 内容

XLNetModel

class transformers.XLNetModel

< >

( config )

参数

  • config (XLNetModel) — 模型的配置类,包含模型的所有参数。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。请查看from_pretrained()方法来加载模型权重。

裸XLNet模型,输出原始隐藏状态,顶部没有任何特定头部。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (形状为(batch_size, sequence_length)torch.Tensor, 可选) — 词汇表中输入序列标记的索引。默认情况下,填充将被忽略。

    索引可以使用AutoTokenizer获取。有关详细信息,请参见PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入ID?

  • attention_mask (形状为(batch_size, sequence_length)torch.Tensor, 可选) — 掩码,用于避免在填充令牌索引上执行注意力。掩码值选择在[0, 1]之间:

    • 1表示未被掩盖的令牌,
    • 0表示被掩盖的令牌。

    什么是注意力掩码?

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(参见下面的mems输出)。可用于加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

    必须将use_mems设置为True才能使用mems

  • perm_mask (形状为(batch_size, sequence_length, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示每个输入令牌的注意力模式,值为[0, 1]

    • 如果perm_mask[k, i, j] = 0,则批处理k中的i关注j;
    • 如果perm_mask[k, i, j] = 1,则批处理k中的i不关注j。

    如果未设置,则每个令牌关注所有其他令牌(完全双向注意力)。仅在预训练期间(用于定义因子分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (形状为(batch_size, num_predict, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示要使用的输出令牌。如果target_mapping[k, i, j] = 1,则批处理k中的第i个预测在第j个令牌上。仅在预训练期间用于部分预测或用于顺序解码(生成)时使用。
  • token_type_ids (形状为(batch_size, sequence_length)torch.Tensor, 可选) — 分段令牌索引,用于指示输入的第一个和第二个部分。索引选择在[0, 1]之间:

    • 0对应于句子A令牌,
    • 1对应于句子B令牌。

    什么是令牌类型ID?

  • input_mask (形状为batch_size, sequence_lengthtorch.FloatTensor, 可选) — 掩码,用于避免在填充令牌索引上执行注意力。attention_mask的负值,即真实令牌为0,填充为1,为了与原始代码库兼容而保留。

    掩码值选择在[0, 1]之间:

    • 1表示被掩盖的令牌,
    • 0表示未被掩盖的令牌。

    您只能使用input_maskattention_mask中的一个。

  • head_mask (形状为(num_heads,)(num_layers, num_heads)torch.Tensor, 可选) — 掩码,用于将自注意力模块的选定头部置零。掩码值选择在[0, 1]之间:

    • 1表示头部未被掩盖
    • 0表示头部被掩盖
  • inputs_embeds (形状为(batch_size, sequence_length, hidden_size)torch.Tensor, 可选) — 可选地,您可以直接传递嵌入表示,而不是传递input_ids。如果您想对如何将input_ids索引转换为相关向量拥有比模型内部嵌入查找矩阵更多的控制权,这将很有用。
  • use_mems (bool, 可选) — 是否使用记忆状态来加速顺序解码。如果设置为True,模型将使用先前前向传播中的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参见返回张量下的attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参见返回张量下的hidden_states
  • return_dict (bool, 可选) — 是否返回ModelOutput而不是纯元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetModelOutputtuple(torch.FloatTensor)

一个transformers.models.xlnet.modeling_xlnet.XLNetModelOutput或一个torch.FloatTensor元组(如果传入return_dict=Falseconfig.return_dict=False时),包含根据配置(XLNetConfig)和输入的不同元素。

  • last_hidden_state (形状为(batch_size, num_predict, hidden_size)torch.FloatTensor) — 模型最后一层的隐藏状态序列。

    num_predict对应于target_mapping.shape[1]。如果target_mappingNone,则num_predict对应于sequence_length

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetModel前向传播方法,覆盖了__call__特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

XLNetLMHeadModel

class transformers.XLNetLMHeadModel

< >

( config )

参数

  • config (XLNetLMHeadModel) — 模型的配置类,包含模型的所有参数。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。请查看from_pretrained()方法来加载模型权重。

XLNet模型,顶部带有一个语言建模头(与输入嵌入绑定的线性层)。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutput or tuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去值传递给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示每个输入 token 的注意力模式,值选择在 [0, 1] 中:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中 i 对 j 执行注意力操作;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中 i 不对 j 执行注意力操作。

    如果未设置,每个 token 都将对所有其他 token 执行注意力操作(完全双向注意力)。仅在预训练期间(用于定义因子分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示要使用的输出 token。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测对应第 j 个 token。仅在预训练期间(用于部分预测)或顺序解码(生成)时使用。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 分段 token 索引,用于指示输入的第一个和第二个部分。索引选择在 [0, 1] 中:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor, 可选) — 避免对填充 token 索引执行注意力操作的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库兼容。

    掩码值选择在 [0, 1] 中:

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.Tensor, 可选) — 掩码,用于使自注意力模块的选定头部无效。掩码值选择在 [0, 1] 中:

    • 1 表示头部 未被掩盖
    • 0 表示头部 被掩盖
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.Tensor, 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制权,则这会很有用。
  • labels (形状为 (batch_size, num_predict)torch.LongTensor, 可选) — 掩码语言建模的标签。num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

    标签应与应预测的掩码输入词对应,并取决于 target_mapping。请注意,为了执行标准自回归语言建模,必须将一个 token 添加到 input_ids(请参阅下面的 prepare_inputs_for_generation 函数和示例)

    索引选择在 [-100, 0, ..., config.vocab_size] 中。所有设置为 -100 的标签都将被忽略,损失仅针对 [0, ..., config.vocab_size] 中的标签计算。

  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用先前正向传递的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。更多详细信息请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (形状为 (1,)torch.FloatTensor, 可选, 当提供 labels 时返回) — 语言建模损失(用于下一个 token 预测)。

  • logits (形状为 (batch_size, num_predict, config.vocab_size)torch.FloatTensor) — 语言建模头部的预测分数(每个词汇 token 在 SoftMax 之前的分数)。

    num_predict对应于target_mapping.shape[1]。如果target_mappingNone,则num_predict对应于sequence_length

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetLMHeadModel 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetLMHeadModel
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetLMHeadModel.from_pretrained("xlnet/xlnet-large-cased")

>>> # We show how to setup inputs to predict a next token using a bi-directional context.
>>> input_ids = torch.tensor(
...     tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=False)
... ).unsqueeze(
...     0
... )  # We will predict the masked token
>>> perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float)
>>> perm_mask[:, :, -1] = 1.0  # Previous tokens don't see last token
>>> target_mapping = torch.zeros(
...     (1, 1, input_ids.shape[1]), dtype=torch.float
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(input_ids, perm_mask=perm_mask, target_mapping=target_mapping)
>>> next_token_logits = outputs[
...     0
... ]  # Output has shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

>>> # The same way can the XLNetLMHeadModel be used to be trained by standard auto-regressive language modeling.
>>> input_ids = torch.tensor(
...     tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=False)
... ).unsqueeze(
...     0
... )  # We will predict the masked token
>>> labels = torch.tensor(tokenizer.encode("cute", add_special_tokens=False)).unsqueeze(0)
>>> assert labels.shape[0] == 1, "only one word will be predicted"
>>> perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float)
>>> perm_mask[
...     :, :, -1
... ] = 1.0  # Previous tokens don't see last token as is done in standard auto-regressive lm training
>>> target_mapping = torch.zeros(
...     (1, 1, input_ids.shape[1]), dtype=torch.float
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(input_ids, perm_mask=perm_mask, target_mapping=target_mapping, labels=labels)
>>> loss = outputs.loss
>>> next_token_logits = (
...     outputs.logits
... )  # Logits have shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

XLNetForSequenceClassification

transformers.XLNetForSequenceClassification

< >

( config )

参数

XLNet 模型,其顶部带有一个序列分类/回归头部(在池化输出顶部的一个线性层),例如用于 GLUE 任务。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutputtuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去值传递给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示每个输入 token 的注意力模式,值选择在 [0, 1] 中:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中 i 对 j 执行注意力操作;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中 i 不对 j 执行注意力操作。

    如果未设置,每个 token 都将对所有其他 token 执行注意力操作(完全双向注意力)。仅在预训练期间(用于定义因子分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示要使用的输出 token。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测对应第 j 个 token。仅在预训练期间(用于部分预测)或顺序解码(生成)时使用。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 分段 token 索引,用于指示输入的第一个和第二个部分。索引选择在 [0, 1] 中:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor, 可选) — 掩码,用于避免对填充 token 索引执行注意力操作。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库兼容。

    掩码值选择在 [0, 1] 中:

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.Tensor, 可选) — 掩码,用于使自注意力模块的选定头部无效。掩码值选择在 [0, 1] 中:

    • 1 表示头部 未被掩盖
    • 0 表示头部 被掩盖
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.Tensor, 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制权,则这会很有用。
  • labels (形状为 (batch_size,)torch.LongTensor, 可选) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。如果 config.num_labels == 1,则计算回归损失(均方损失);如果 config.num_labels > 1,则计算分类损失(交叉熵)。
  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用先前正向传递的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。更多详细信息请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 label 时返回) — 分类 (如果 config.num_labels==1 则为回归) 损失。

  • logits (形状为 (batch_size, config.num_labels)torch.FloatTensor) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForSequenceClassification 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

单标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, XLNetForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-large-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_id = logits.argmax().item()
>>> model.config.id2label[predicted_class_id]
...

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-large-cased", num_labels=num_labels)

>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss
>>> round(loss.item(), 2)
...

多标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, XLNetForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-large-cased", problem_type="multi_label_classification")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = XLNetForSequenceClassification.from_pretrained(
...     "xlnet/xlnet-large-cased", num_labels=num_labels, problem_type="multi_label_classification"
... )

>>> labels = torch.sum(
...     torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).loss

XLNetForMultipleChoice

transformers.XLNetForMultipleChoice

< >

( config )

参数

  • config (XLNetForMultipleChoice) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

Xlnet 模型,其顶部带有一个多项选择分类头部(在池化输出顶部的一个线性层和一个 softmax),例如用于 RocStories/SWAG 任务。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutputtuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, num_choices, sequence_length)torch.LongTensor) — 词汇表中输入序列 token 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • token_type_ids (形状为 (batch_size, num_choices, sequence_length)torch.LongTensor, 可选) — 分段 token 索引,用于指示输入的第一个和第二个部分。索引选择在 [0, 1] 中:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (形状为 batch_size, num_choices, sequence_lengthtorch.FloatTensor, 可选) — 掩码,用于避免对填充 token 索引执行注意力操作。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库兼容。

    掩码值选择在 [0, 1] 中:

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor, 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去值传递给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示每个输入 token 的注意力模式,值选择在 [0, 1] 中:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中 i 对 j 执行注意力操作;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中 i 不对 j 执行注意力操作。

    如果未设置,每个 token 都将对所有其他 token 执行注意力操作(完全双向注意力)。仅在预训练期间(用于定义因子分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor, 可选) — 掩码,用于指示要使用的输出 token。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测对应第 j 个 token。仅在预训练期间(用于部分预测)或顺序解码(生成)时使用。
  • head_mask (torch.Tensor of shape (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块的选定头无效的掩码。掩码值选择在 [0, 1] 之间:

    • 1 表示头 未被掩码,
    • 0 表示头 被掩码.
  • inputs_embeds (torch.FloatTensor of shape (batch_size, num_choices, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量进行比模型内部嵌入查找矩阵更精细的控制,这会很有用。
  • labels (torch.LongTensor of shape (batch_size,), 可选) — 用于计算多项选择分类损失的标签。索引应在 `[0, ...,
  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用先前正向传播中的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutput 或一个 torch.FloatTensor 元组(如果传递 return_dict=False 或当 config.return_dict=False 时),其中包含根据配置 (XLNetConfig) 和输入的不同元素。

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 labels 时返回) — 分类损失。

  • logits (形状为 (batch_size, num_choices)torch.FloatTensor) — num_choices 是输入张量的第二维大小。(请参阅上面的 input_ids)。

    分类分数(SoftMax 之前)。

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForMultipleChoice 的 forward 方法,它重写了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForMultipleChoice
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetForMultipleChoice.from_pretrained("xlnet/xlnet-large-cased")

>>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced."
>>> choice0 = "It is eaten with a fork and a knife."
>>> choice1 = "It is eaten while held in the hand."
>>> labels = torch.tensor(0).unsqueeze(0)  # choice0 is correct (according to Wikipedia ;)), batch size 1

>>> encoding = tokenizer([prompt, prompt], [choice0, choice1], return_tensors="pt", padding=True)
>>> outputs = model(**{k: v.unsqueeze(0) for k, v in encoding.items()}, labels=labels)  # batch size is 1

>>> # the linear classifier still needs to be trained
>>> loss = outputs.loss
>>> logits = outputs.logits

XLNetForTokenClassification

transformers.XLNetForTokenClassification

< >

( config )

参数

  • config (XLNetForTokenClassification) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只加载配置。请查看 from_pretrained() 方法来加载模型权重。

Xlnet transformer,顶部带有令牌分类头(隐藏状态输出顶部的一个线性层),例如用于命名实体识别 (NER) 任务。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.Tensor of shape (batch_size, sequence_length), 可选) — 词汇表中输入序列令牌的索引。默认情况下会忽略填充。

    索引可以使用 AutoTokenizer 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), 可选) — 用于避免在填充令牌索引上执行注意力的掩码。掩码值选择在 [0, 1] 之间:

    • 1 表示 未被掩码 的令牌,
    • 0 表示 被掩码 的令牌.

    什么是注意力掩码?

  • mems (list[torch.FloatTensor],长度为 config.n_layers) — 包含预计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去值传递给此模型的令牌 ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor of shape (batch_size, sequence_length, sequence_length), 可选) — 用于指示每个输入令牌的注意力模式的掩码,值选择在 [0, 1] 之间:

    • 如果 perm_mask[k, i, j] = 0,则批处理 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批处理 k 中的 i 不注意 j。

    如果未设置,则每个令牌注意所有其他令牌(完全双向注意力)。仅在预训练期间(定义分解顺序)或顺序解码(生成)期间使用。

  • target_mapping (torch.FloatTensor of shape (batch_size, num_predict, sequence_length), 可选) — 用于指示要使用的输出令牌的掩码。如果 target_mapping[k, i, j] = 1,则批处理 k 中的第 i 个预测位于第 j 个令牌上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.Tensor of shape (batch_size, sequence_length), 可选) — 段落令牌索引,用于指示输入的第一个和第二个部分。索引选择在 [0, 1] 之间:

    • 0 对应于 句子 A 令牌,
    • 1 对应于 句子 B 令牌.

    什么是令牌类型 ID?

  • input_mask (torch.FloatTensor of shape batch_size, sequence_length, 可选) — 用于避免在填充令牌索引上执行注意力的掩码。与 attention_mask 相反,即真实令牌为 0,填充为 1,这与原始代码库兼容。

    掩码值选择在 [0, 1] 之间:

    • 1 表示 被掩码 的令牌,
    • 0 表示 未被掩码 的令牌.

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.Tensor of shape (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块的选定头无效的掩码。掩码值选择在 [0, 1] 之间:

    • 1 表示头 未被掩码,
    • 0 表示头 被掩码.
  • inputs_embeds (torch.Tensor of shape (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量进行比模型内部嵌入查找矩阵更精细的控制,这会很有用。
  • labels (torch.LongTensor of shape (batch_size,), 可选) — 用于计算多项选择分类损失的标签。索引应在 [0, ..., num_choices] 之间,其中 num_choices 是输入张量第二维度的大小。(参见上面的 input_ids
  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用先前正向传播中的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutput 或一个 torch.FloatTensor 元组(如果传递 return_dict=False 或当 config.return_dict=False 时),其中包含根据配置 (XLNetConfig) 和输入的不同元素。

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 labels 时返回) — 分类损失。

  • logits (形状为 (batch_size, sequence_length, config.num_labels)torch.FloatTensor) — 分类分数(SoftMax 之前)。

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForTokenClassification 的 forward 方法,它重写了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForTokenClassification
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetForTokenClassification.from_pretrained("xlnet/xlnet-large-cased")

>>> inputs = tokenizer(
...     "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="pt"
... )

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_token_class_ids = logits.argmax(-1)

>>> # Note that tokens are classified rather then input words which means that
>>> # there might be more predicted token classes than words.
>>> # Multiple token classes might account for the same word
>>> predicted_tokens_classes = [model.config.id2label[t.item()] for t in predicted_token_class_ids[0]]
>>> predicted_tokens_classes
...

>>> labels = predicted_token_class_ids
>>> loss = model(**inputs, labels=labels).loss
>>> round(loss.item(), 2)
...

XLNetForQuestionAnsweringSimple

transformers.XLNetForQuestionAnsweringSimple

< >

( config )

参数

XLNet 模型,顶部带有一个用于 SQuAD 等抽取式问答任务的跨度分类头(隐藏状态输出顶部的一个线性层,用于计算 span start logitsspan end logits)。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None start_positions: typing.Optional[torch.Tensor] = None end_positions: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.Tensor of shape (batch_size, sequence_length), 可选) — 词汇表中输入序列令牌的索引。默认情况下会忽略填充。

    索引可以使用 AutoTokenizer 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), 可选) — 用于避免在填充令牌索引上执行注意力的掩码。掩码值选择在 [0, 1] 之间:

    • 1 表示 未被掩码 的令牌,
    • 0 表示 被掩码 的令牌.

    什么是注意力掩码?

  • mems (list[torch.FloatTensor],长度为 config.n_layers) — 包含预计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去值传递给此模型的令牌 ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor of shape (batch_size, sequence_length, sequence_length), 可选) — 用于指示每个输入令牌的注意力模式的掩码,值选择在 [0, 1] 之间:

    • 如果 perm_mask[k, i, j] = 0,则批处理 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批处理 k 中的 i 不注意 j。

    如果未设置,则每个令牌注意所有其他令牌(完全双向注意力)。仅在预训练期间(定义分解顺序)或顺序解码(生成)期间使用。

  • target_mapping (torch.FloatTensor of shape (batch_size, num_predict, sequence_length), 可选) — 用于指示要使用的输出令牌的掩码。如果 target_mapping[k, i, j] = 1,则批处理 k 中的第 i 个预测位于第 j 个令牌上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.Tensor of shape (batch_size, sequence_length), 可选) — 段落令牌索引,用于指示输入的第一个和第二个部分。索引选择在 [0, 1] 之间:

    • 0 对应于 句子 A 令牌,
    • 1 对应于 句子 B 令牌.

    什么是令牌类型 ID?

  • input_mask (torch.FloatTensor of shape batch_size, sequence_length, 可选) — 用于避免在填充令牌索引上执行注意力的掩码。与 attention_mask 相反,即真实令牌为 0,填充为 1,这与原始代码库兼容。

    掩码值选择在 [0, 1] 之间:

    • 1 表示 被掩码 的令牌,
    • 0 表示 未被掩码 的令牌.

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.Tensor of shape (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块的选定头无效的掩码。掩码值选择在 [0, 1] 之间:

    • 1 表示头 未被掩码,
    • 0 表示头 被掩码.
  • inputs_embeds (torch.Tensor of shape (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为关联向量进行比模型内部嵌入查找矩阵更精细的控制,这会很有用。
  • start_positions (torch.Tensor of shape (batch_size,), 可选) — 用于计算令牌分类损失的标记跨度起始位置(索引)的标签。位置将被限制在序列长度(sequence_length)内。序列外的位置不计入损失计算。
  • end_positions (torch.Tensor of shape (batch_size,), 可选) — 用于计算令牌分类损失的标记跨度结束位置(索引)的标签。位置将被限制在序列长度(sequence_length)内。序列外的位置不计入损失计算。
  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用先前正向传播中的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 对象,而非纯元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutput 或一个 torch.FloatTensor 元组(如果传递 return_dict=Falseconfig.return_dict=False 时),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 总范围提取损失是起始位置和结束位置的交叉熵之和。

  • start_logits (torch.FloatTensor 形状为 (batch_size, sequence_length,)) — 跨度起始分数(SoftMax 之前)。

  • end_logits (torch.FloatTensor 形状为 (batch_size, sequence_length,)) — 跨度结束分数(SoftMax 之前)。

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnsweringSimple 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForQuestionAnsweringSimple
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetForQuestionAnsweringSimple.from_pretrained("xlnet/xlnet-large-cased")

>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"

>>> inputs = tokenizer(question, text, return_tensors="pt")
>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> answer_start_index = outputs.start_logits.argmax()
>>> answer_end_index = outputs.end_logits.argmax()

>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> tokenizer.decode(predict_answer_tokens, skip_special_tokens=True)
...

>>> # target is "nice puppet"
>>> target_start_index = torch.tensor([14])
>>> target_end_index = torch.tensor([15])

>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = outputs.loss
>>> round(loss.item(), 2)
...

XLNetForQuestionAnswering

class transformers.XLNetForQuestionAnswering

< >

( config )

参数

  • config (XLNetForQuestionAnswering) — 包含模型所有参数的模型配置类。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。要加载模型权重,请查看 from_pretrained() 方法。

Xlnet transformer 带有用于抽取式问答任务(如 SQuAD)的跨度分类头(在隐藏状态输出之上有一个线性层,用于计算 `span start logits` 和 `span end logits`)。

此模型继承自PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是PyTorch torch.nn.Module的子类。将其作为常规的PyTorch模块使用,并参考PyTorch文档了解所有与通用用法和行为相关的事项。

前向传播

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None mems: typing.Optional[torch.Tensor] = None perm_mask: typing.Optional[torch.Tensor] = None target_mapping: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None input_mask: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None start_positions: typing.Optional[torch.Tensor] = None end_positions: typing.Optional[torch.Tensor] = None is_impossible: typing.Optional[torch.Tensor] = None cls_index: typing.Optional[torch.Tensor] = None p_mask: typing.Optional[torch.Tensor] = None use_mems: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择范围为 [0, 1]

    • 1 表示 未被遮蔽 的 token,
    • 0 表示 被遮蔽 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预计算的隐藏状态(请参见下面的 mems 输出)。可用于加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor 形状为 (batch_size, sequence_length, sequence_length), 可选) — 指示每个输入 token 的注意力模式的掩码,其值选择范围为 [0, 1]

    • 如果 perm_mask[k, i, j] = 0,则批处理 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批处理 k 中的 i 不注意 j。

    如果未设置,则每个 token 都会注意所有其他 token(完全双向注意力)。仅在预训练期间(用于定义因式分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor 形状为 (batch_size, num_predict, sequence_length), 可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则批处理 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或用于顺序解码(生成)。
  • token_type_ids (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 分段 token 索引,用于指示输入的第一个和第二个部分。索引选择范围为 [0, 1]

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (torch.FloatTensor 形状为 batch_size, sequence_length, 可选) — 避免对填充 token 索引执行注意力操作的掩码。是 attention_mask 的负值,即真实 token 为 0,填充 token 为 1,以与原始代码库兼容。

    掩码值选择范围为 [0, 1]

    • 1 表示 被遮蔽 的 token,
    • 0 表示 未被遮蔽 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.Tensor 形状为 (num_heads,)(num_layers, num_heads), 可选) — 遮蔽自注意力模块选定头的掩码。掩码值选择范围为 [0, 1]

    • 1 表示头 未被遮蔽
    • 0 表示头 被遮蔽
  • inputs_embeds (torch.Tensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为相关向量有比模型内部嵌入查找矩阵更多的控制,这将非常有用。
  • start_positions (torch.Tensor 形状为 (batch_size,), 可选) — 用于计算 token 分类损失的标签跨度起始位置(索引)。位置被限制为序列的长度(sequence_length)。序列之外的位置不计入损失计算。
  • end_positions (torch.Tensor 形状为 (batch_size,), 可选) — 用于计算 token 分类损失的标签跨度结束位置(索引)。位置被限制为序列的长度(sequence_length)。序列之外的位置不计入损失计算。
  • is_impossible (torch.LongTensor 形状为 (batch_size,), 可选) — 标签,表示问题是否有答案(SQuAD 2.0)。
  • cls_index (torch.LongTensor 形状为 (batch_size,), 可选) — 用于计算答案合理性作为输入的分类 token 的位置(索引)标签。
  • p_mask (torch.FloatTensor 形状为 (batch_size, sequence_length), 可选) — 可选的 token 掩码,表示不能作为答案的 token(例如 [CLS]、[PAD] 等)。1.0 表示 token 应该被遮蔽。0.0 表示 token 未被遮蔽。
  • use_mems (bool, 可选) — 是否使用内存状态来加速顺序解码。如果设置为 True,模型将使用前向传播中的隐藏状态来计算注意力,这可以显著提高顺序解码任务的性能。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 对象,而非纯元组。

返回

transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutput 或一个 torch.FloatTensor 元组(如果传递 return_dict=Falseconfig.return_dict=False 时),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (torch.FloatTensor 形状为 (1,), 可选, 如果提供了 start_positionsend_positions,则返回) — 作为起始 token 损失、结束 token 损失(如果提供 is_impossible,则包含其损失)总和的分类损失。

  • start_top_log_probs (torch.FloatTensor 形状为 (batch_size, config.start_n_top), 可选, 如果未提供 start_positionsend_positions,则返回) — 顶层 config.start_n_top 起始 token 可能性(束搜索)的对数概率。

  • start_top_index (torch.LongTensor 形状为 (batch_size, config.start_n_top), 可选, 如果未提供 start_positionsend_positions,则返回) — 顶层 config.start_n_top 起始 token 可能性(束搜索)的索引。

  • end_top_log_probs (torch.FloatTensor 形状为 (batch_size, config.start_n_top * config.end_n_top), 可选, 如果未提供 start_positionsend_positions,则返回) — 顶层 config.start_n_top * config.end_n_top 结束 token 可能性(束搜索)的对数概率。

  • end_top_index (torch.LongTensor 形状为 (batch_size, config.start_n_top * config.end_n_top), 可选, 如果未提供 start_positionsend_positions,则返回) — 顶层 config.start_n_top * config.end_n_top 结束 token 可能性(束搜索)的索引。

  • cls_logits (torch.FloatTensor 形状为 (batch_size,), 可选, 如果未提供 start_positionsend_positions,则返回) — 答案的 is_impossible 标签的对数概率。

  • mems (长度为config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态。可用于(参见mems输入)加速顺序解码。已将过去的令牌ID提供给此模型的令牌ID不应作为input_ids传递,因为它们已被计算。

  • hidden_states (tuple[torch.FloatTensor, ...], 可选, 当传入output_hidden_states=Trueconfig.output_hidden_states=True时返回) — 形状为(batch_size, sequence_length, hidden_size)torch.FloatTensor元组(一个用于嵌入层输出,如果模型有嵌入层,+ 每个层输出一个)。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor, ...], 可选, 当传入output_attentions=Trueconfig.output_attentions=True时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor元组(每个层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnswering 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForQuestionAnswering
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForQuestionAnswering.from_pretrained("xlnet/xlnet-base-cased")

>>> input_ids = torch.tensor(tokenizer.encode("Hello, my dog is cute", add_special_tokens=True)).unsqueeze(
...     0
... )  # Batch size 1
>>> start_positions = torch.tensor([1])
>>> end_positions = torch.tensor([3])
>>> outputs = model(input_ids, start_positions=start_positions, end_positions=end_positions)

>>> loss = outputs.loss
TensorFlow
隐藏 TensorFlow 内容

TFXLNetModel

class transformers.TFXLNetModel

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。要加载模型权重,请查看 from_pretrained() 方法。

裸 XLNet 模型 transformer,输出原始隐藏状态,顶部没有任何特定头部。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutputtuple(tf.Tensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列 token 的索引。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor 形状为 (batch_size, sequence_length), 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择范围为 [0, 1]

    • 1 表示 未被遮蔽 的 token,
    • 0 表示 被遮蔽 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预计算的隐藏状态(请参见下面的 mems 输出)。可用于加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor 形状为 (batch_size, sequence_length, sequence_length), 可选) — 指示每个输入 token 的注意力模式的掩码,其值选择范围为 [0, 1]

    • 如果 perm_mask[k, i, j] = 0,则批处理 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批处理 k 中的 i 不注意 j。

    如果未设置,则每个 token 都会注意所有其他 token(完全双向注意力)。仅在预训练期间(用于定义因式分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor 形状为 (batch_size, num_predict, sequence_length), 可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则批处理 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或用于顺序解码(生成)。
  • token_type_ids (torch.LongTensor 形状为 (batch_size, sequence_length), 可选) — 分段 token 索引,用于指示输入的第一个和第二个部分。索引选择范围为 [0, 1]

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (torch.FloatTensor 形状为 batch_size, sequence_length, 可选) — 避免对填充 token 索引执行注意力操作的掩码。是 attention_mask 的负值,即真实 token 为 0,填充 token 为 1,以与原始代码库兼容。

    掩码值选择范围为 [0, 1]

    • 1 表示 被遮蔽 的 token,
    • 0 表示 未被遮蔽 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor 形状为 (num_heads,)(num_layers, num_heads), 可选) — 遮蔽自注意力模块选定头的掩码。掩码值选择范围为 [0, 1]

    • 1 表示头 未被遮蔽
    • 0 表示头 被遮蔽
  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对 input_ids 索引如何转换为相关向量有比模型内部嵌入查找矩阵更多的控制,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 对象,而非纯元组。

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutput 或一个 tf.Tensor 元组(如果传递 return_dict=Falseconfig.return_dict=False 时),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • last_hidden_state (tf.Tensor 形状为 (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict对应于target_mapping.shape[1]。如果target_mappingNone,则num_predict对应于sequence_length

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetModel 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetModel.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)

>>> last_hidden_states = outputs.last_hidden_state

TFXLNetLMHeadModel

class transformers.TFXLNetLMHeadModel

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。用配置文件初始化模型不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

XLNet模型,顶部带有一个语言建模头(与输入嵌入绑定的线性层)。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutputtuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中输入序列 token 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择范围为 [0, 1]

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预计算的隐藏状态(见下面的 mems 输出)。可用于加速顺序解码。已将 past 传入此模型的 token ID 不应作为 input_ids 传入,因为它们已被计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor可选) — 指示每个输入 token 注意力模式的掩码,值选择范围为 [0, 1]

    • 如果 perm_mask[k, i, j] = 0,则 batch k 中的 i 注意到 j;
    • 如果 perm_mask[k, i, j] = 1,则 batch k 中的 i 不注意到 j。

    如果未设置,每个 token 注意到所有其他 token(完全双向注意力)。仅在预训练期间(定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则 batch k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 指示输入的第一部分和第二部分的段 token 索引。索引选择范围为 [0, 1]

    • 0 对应 句子 A 的 token,
    • 1 对应 句子 B 的 token。

    什么是 token type ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库保持兼容。

    掩码值选择范围为 [0, 1]

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor可选) — 用于使自注意力模块的选定头部无效的掩码。掩码值选择范围为 [0, 1]

    • 1 表示头部 未被掩盖
    • 0 表示头部 被掩盖
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor可选) — 可选地,您可以选择直接传入嵌入表示而不是 input_ids。如果您希望对如何将 input_ids 索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。更多详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯元组。
  • labels (形状为 (batch_size, sequence_length)tf.Tensor可选) — 用于计算交叉熵分类损失的标签。索引应在 [0, ..., config.vocab_size - 1] 范围内。

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutput 或一个 tf.Tensor 元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (形状为 (1,)tf.Tensor可选,当提供 labels 时返回) 语言建模损失(用于下一个 token 预测)。

  • logits (形状为 (batch_size, num_predict, config.vocab_size)tf.Tensor) — 语言建模头的预测分数(SoftMax 之前的每个词汇 token 的分数)。

    num_predict对应于target_mapping.shape[1]。如果target_mappingNone,则num_predict对应于sequence_length

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetLMHeadModel 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> import tensorflow as tf
>>> import numpy as np
>>> from transformers import AutoTokenizer, TFXLNetLMHeadModel

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = TFXLNetLMHeadModel.from_pretrained("xlnet/xlnet-large-cased")

>>> # We show how to setup inputs to predict a next token using a bi-directional context.
>>> input_ids = tf.constant(tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=True))[
...     None, :
... ]  # We will predict the masked token

>>> perm_mask = np.zeros((1, input_ids.shape[1], input_ids.shape[1]))
>>> perm_mask[:, :, -1] = 1.0  # Previous tokens don't see last token

>>> target_mapping = np.zeros(
...     (1, 1, input_ids.shape[1])
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(
...     input_ids,
...     perm_mask=tf.constant(perm_mask, dtype=tf.float32),
...     target_mapping=tf.constant(target_mapping, dtype=tf.float32),
... )

>>> next_token_logits = outputs[
...     0
... ]  # Output has shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

TFXLNetForSequenceClassification

class transformers.TFXLNetForSequenceClassification

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。用配置文件初始化模型不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,其顶部带有一个序列分类/回归头部(在池化输出顶部的一个线性层),例如用于 GLUE 任务。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutputtuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中输入序列 token 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择范围为 [0, 1]

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预计算的隐藏状态(见下面的 mems 输出)。可用于加速顺序解码。已将 past 传入此模型的 token ID 不应作为 input_ids 传入,因为它们已被计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor可选) — 指示每个输入 token 注意力模式的掩码,值选择范围为 [0, 1]

    • 如果 perm_mask[k, i, j] = 0,则 batch k 中的 i 注意到 j;
    • 如果 perm_mask[k, i, j] = 1,则 batch k 中的 i 不注意到 j。

    如果未设置,每个 token 注意到所有其他 token(完全双向注意力)。仅在预训练期间(定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则 batch k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 指示输入的第一部分和第二部分的段 token 索引。索引选择范围为 [0, 1]

    • 0 对应 句子 A 的 token,
    • 1 对应 句子 B 的 token。

    什么是 token type ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库保持兼容。

    掩码值选择范围为 [0, 1]

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor可选) — 用于使自注意力模块的选定头部无效的掩码。掩码值选择范围为 [0, 1]

    • 1 表示头部 未被掩盖
    • 0 表示头部 被掩盖
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor可选) — 可选地,您可以选择直接传入嵌入表示而不是 input_ids。如果您希望对如何将 input_ids 索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。更多详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯元组。
  • labels (形状为 (batch_size,)tf.Tensor可选) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。如果 config.num_labels == 1,则计算回归损失(均方损失),如果 config.num_labels > 1,则计算分类损失(交叉熵)。

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutput 或一个 tf.Tensor 元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含根据配置(XLNetConfig)和输入而定的各种元素。

  • loss (形状为 (1,)tf.Tensor可选,当提供 label 时返回) — 分类(或回归,如果 config.num_labels==1)损失。

  • logits (tf.Tensor,形状为 (batch_size, config.num_labels)) — 分类(或回归,如果 config.num_labels==1)分数(SoftMax 之前)。

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForSequenceClassification 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForSequenceClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")

>>> logits = model(**inputs).logits

>>> predicted_class_id = int(tf.math.argmax(logits, axis=-1)[0])
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TFXLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased", num_labels=num_labels)

>>> labels = tf.constant(1)
>>> loss = model(**inputs, labels=labels).loss

TFXLNetForMultipleChoice

class transformers.TFXLNetForMultipleChoice

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。用配置文件初始化模型不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

XLNET 模型,顶部带有多项选择分类头(在池化输出顶部和 softmax 上的线性层),例如用于 RocStories/SWAG 任务。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutputtuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, num_choices, sequence_length)torch.LongTensor) — 词汇表中输入序列 token 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, num_choices, sequence_length)torch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择范围为 [0, 1]

    • 1 表示 未被掩盖 的 token,
    • 0 表示 被掩盖 的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预计算的隐藏状态(见下面的 mems 输出)。可用于加速顺序解码。已将 past 传入此模型的 token ID 不应作为 input_ids 传入,因为它们已被计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor可选) — 指示每个输入 token 注意力模式的掩码,值选择范围为 [0, 1]

    • 如果 perm_mask[k, i, j] = 0,则 batch k 中的 i 注意到 j;
    • 如果 perm_mask[k, i, j] = 1,则 batch k 中的 i 不注意到 j。

    如果未设置,每个 token 注意到所有其他 token(完全双向注意力)。仅在预训练期间(定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则 batch k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (形状为 (batch_size, num_choices, sequence_length)torch.LongTensor可选) — 指示输入的第一部分和第二部分的段 token 索引。索引选择范围为 [0, 1]

    • 0 对应 句子 A 的 token,
    • 1 对应 句子 B 的 token。

    什么是 token type ID?

  • input_mask (形状为 batch_size, num_choices, sequence_lengthtorch.FloatTensor可选) — 避免对填充 token 索引执行注意力操作的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,这与原始代码库保持兼容。

    掩码值选择范围为 [0, 1]

    • 1 表示 被掩盖 的 token,
    • 0 表示 未被掩盖 的 token。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor可选) — 用于使自注意力模块中的选定注意力头无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示注意力头未被遮蔽
    • 0 表示注意力头已被遮蔽
  • inputs_embeds (形状为 (batch_size, num_choices, sequence_length, hidden_size)torch.FloatTensor可选) — 可选地,你可以选择直接传入嵌入表示,而不是传入 input_ids。如果你想对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。更多详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而非普通元组。
  • labels (形状为 (batch_size,)tf.Tensor可选) — 用于计算多项选择分类损失的标签。索引应在 [0, ..., num_choices] 范围内,其中 num_choices 是输入张量第二维的大小。(请参阅上面的 input_ids

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutput 或一个 tf.Tensor 的元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含根据配置(XLNetConfig)和输入而异的各种元素。

  • loss (形状为 (1,)tf.Tensor可选,当提供 labels 时返回) — 分类损失。

  • logits (tf.Tensor,形状为 (batch_size, num_choices)) — num_choices 是输入张量的第二维。(参见上面的 input_ids)。

    分类分数(SoftMax 之前)。

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForMultipleChoice 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForMultipleChoice
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForMultipleChoice.from_pretrained("xlnet/xlnet-base-cased")

>>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced."
>>> choice0 = "It is eaten with a fork and a knife."
>>> choice1 = "It is eaten while held in the hand."

>>> encoding = tokenizer([prompt, prompt], [choice0, choice1], return_tensors="tf", padding=True)
>>> inputs = {k: tf.expand_dims(v, 0) for k, v in encoding.items()}
>>> outputs = model(inputs)  # batch size is 1

>>> # the linear classifier still needs to be trained
>>> logits = outputs.logits

TFXLNetForTokenClassification

class transformers.TFXLNetForTokenClassification

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。请查阅 from_pretrained() 方法来加载模型权重。

XLNet 模型,其顶部带有一个 token 分类头(隐藏状态输出顶部的一个线性层),例如用于命名实体识别 (NER) 任务。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutput or tuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词表中输入序列 token 的索引。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.FloatTensor可选) — 避免对填充 token 索引执行注意力的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示未被遮蔽的 token,
    • 0 表示已被遮蔽的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(请参阅下面的 mems 输出)。可用于加速顺序解码。已提供给该模型的 token ID 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor可选) — 指示每个输入 token 注意力模式的掩码,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不注意 j。

    如果未设置,每个 token 注意所有其他 token(完全双向注意力)。仅在预训练期间(定义分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或用于顺序解码(生成)时使用。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 片段 token 索引,用于指示输入的第一个和第二个部分。索引在 [0, 1] 中选择:

    • 0 对应于句子 A token,
    • 1 对应于句子 B token。

    什么是 token 类型 ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor可选) — 避免对填充 token 索引执行注意力的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,以保持与原始代码库的兼容性。

    掩码值在 [0, 1] 中选择:

    • 1 表示已被遮蔽的 token,
    • 0 表示未被遮蔽的 token。

    你只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor可选) — 用于使自注意力模块中的选定注意力头无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示注意力头未被遮蔽
    • 0 表示注意力头已被遮蔽
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor可选) — 可选地,你可以选择直接传入嵌入表示,而不是传入 input_ids。如果你想对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。更多详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而非普通元组。
  • labels (形状为 (batch_size, sequence_length)tf.Tensor可选) — 用于计算 token 分类损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutput 或一个 tf.Tensor 的元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含根据配置(XLNetConfig)和输入而异的各种元素。

  • loss (形状为 (1,)tf.Tensor可选,当提供 labels 时返回) — 分类损失。

  • logits (tf.Tensor,形状为 (batch_size, sequence_length, config.num_labels)) — 分类分数(SoftMax 之前)。

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForTokenClassification 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForTokenClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForTokenClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer(
...     "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="tf"
... )

>>> logits = model(**inputs).logits
>>> predicted_token_class_ids = tf.math.argmax(logits, axis=-1)

>>> # Note that tokens are classified rather then input words which means that
>>> # there might be more predicted token classes than words.
>>> # Multiple token classes might account for the same word
>>> predicted_tokens_classes = [model.config.id2label[t] for t in predicted_token_class_ids[0].numpy().tolist()]
>>> labels = predicted_token_class_ids
>>> loss = tf.math.reduce_mean(model(**inputs, labels=labels).loss)

TFXLNetForQuestionAnsweringSimple

class transformers.TFXLNetForQuestionAnsweringSimple

< >

( config *inputs **kwargs )

参数

  • config (XLNetConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化模型不会加载与模型相关的权重,只加载配置。请查阅 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个用于 SQuAD 等抽取式问答任务的跨度分类头(隐藏状态输出顶部的一个线性层,用于计算 span start logitsspan end logits)。

此模型继承自 TFPreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看父类文档。

此模型也是 keras.Model 的子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档了解所有与一般使用和行为相关的事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 所有输入作为关键字参数(如 PyTorch 模型),或
  • 所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 `model.fit()` 等方法时,一切都应该“正常工作”——只需以 `model.fit()` 支持的任何格式传递您的输入和标签即可!但是,如果您想在 `fit()` 和 `predict()` 等 Keras 方法之外使用第二种格式,例如在使用 Keras `Functional` API 创建自己的层或模型时,可以使用三种可能性来收集第一个位置参数中的所有输入张量。

  • 只有一个 input_ids 的单个张量,没有其他:model(input_ids)
  • 长度可变的列表,包含一个或多个输入张量,按文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入张量:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

调用

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None start_positions: np.ndarray | tf.Tensor | None = None end_positions: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput or tuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词表中输入序列 token 的索引。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.FloatTensor可选) — 避免对填充 token 索引执行注意力的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示未被遮蔽的 token,
    • 0 表示已被遮蔽的 token。

    什么是注意力掩码?

  • mems (长度为 config.n_layerslist[torch.FloatTensor]) — 包含预先计算的隐藏状态(请参阅下面的 mems 输出)。可用于加速顺序解码。已提供给该模型的 token ID 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (形状为 (batch_size, sequence_length, sequence_length)torch.FloatTensor可选) — 指示每个输入 token 注意力模式的掩码,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不注意 j。

    如果未设置,每个 token 注意所有其他 token(完全双向注意力)。仅在预训练期间(定义分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (形状为 (batch_size, num_predict, sequence_length)torch.FloatTensor可选) — 指示要使用的输出 token 的掩码。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或用于顺序解码(生成)时使用。
  • token_type_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 片段 token 索引,用于指示输入的第一个和第二个部分。索引在 [0, 1] 中选择:

    • 0 对应于句子 A token,
    • 1 对应于句子 B token。

    什么是 token 类型 ID?

  • input_mask (形状为 batch_size, sequence_lengthtorch.FloatTensor可选) — 避免对填充 token 索引执行注意力的掩码。与 attention_mask 相反,即真实 token 为 0,填充为 1,以保持与原始代码库的兼容性。

    掩码值在 [0, 1] 中选择:

    • 1 表示已被遮蔽的 token,
    • 0 表示未被遮蔽的 token。

    你只能使用 input_maskattention_mask 中的一个。

  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor可选) — 用于使自注意力模块中的选定注意力头无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示注意力头未被遮蔽
    • 0 表示注意力头已被遮蔽
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor可选) — 可选地,你可以选择直接传入嵌入表示,而不是传入 input_ids。如果你想对 input_ids 索引如何转换为关联向量拥有比模型内部嵌入查找矩阵更多的控制,这会很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。更多详细信息请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。更多详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而非普通元组。
  • start_positions (形状为 (batch_size,)tf.Tensor可选) — 用于计算 token 分类损失的标注跨度起始位置(索引)的标签。位置被限制在序列长度(sequence_length)范围内。超出序列的位置不计入损失计算。
  • end_positions (形状为 (batch_size,)tf.Tensor可选) — 用于计算 token 分类损失的标注跨度结束位置(索引)的标签。位置被限制在序列长度(sequence_length)范围内。超出序列的位置不计入损失计算。

返回

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput 或一个 tf.Tensor 的元组(如果传入 return_dict=False 或当 config.return_dict=False 时),包含根据配置(XLNetConfig)和输入而异的各种元素。

  • loss (形状为 (1,)tf.Tensor可选,当提供 labels 时返回) — 总跨度提取损失是起始和结束位置的交叉熵之和。

  • start_logits (形状为 (batch_size, sequence_length,)tf.Tensor) — 跨度起始得分(SoftMax 之前)。

  • end_logits (形状为 (batch_size, sequence_length,)tf.Tensor) — 跨度结束得分(SoftMax 之前)。

  • mems (长度为 config.n_layerslist[tf.Tensor]) — 包含预计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token ID 不应作为 input_ids 传递,因为它们已经计算过。

  • hidden_states (tuple(tf.Tensor), 可选, 如果传递 output_hidden_states=Trueconfig.output_hidden_states=True,则返回) — tf.Tensor 元组(一个用于嵌入输出 + 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 如果传递 output_attentions=Trueconfig.output_attentions=True,则返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForQuestionAnsweringSimple 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的配方需要在该函数中定义,但在此之后应该调用Module实例而不是它,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForQuestionAnsweringSimple
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForQuestionAnsweringSimple.from_pretrained("xlnet/xlnet-base-cased")

>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"

>>> inputs = tokenizer(question, text, return_tensors="tf")
>>> outputs = model(**inputs)

>>> answer_start_index = int(tf.math.argmax(outputs.start_logits, axis=-1)[0])
>>> answer_end_index = int(tf.math.argmax(outputs.end_logits, axis=-1)[0])

>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> # target is "nice puppet"
>>> target_start_index = tf.constant([14])
>>> target_end_index = tf.constant([15])

>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = tf.math.reduce_mean(outputs.loss)
< > 在 GitHub 上更新