Transformers 文档

XLNet

Hugging Face's logo
加入 Hugging Face 社区

并获取增强的文档体验

开始使用

XLNet

Models Spaces

概述

XLNet 模型在 XLNet: Generalized Autoregressive Pretraining for Language Understanding 中提出,作者为 Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le。XLnet 是 Transformer-XL 模型的扩展,它使用自回归方法进行预训练,通过最大化输入序列分解顺序的所有排列的期望似然性来学习双向上下文。

论文摘要如下:

凭借对双向上下文进行建模的能力,像 BERT 这样的去噪自动编码预训练比基于自回归语言建模的预训练方法取得了更好的性能。然而,BERT 依赖于使用掩码破坏输入,忽略了掩码位置之间的依赖关系,并遭受了预训练-微调差异。鉴于这些优点和缺点,我们提出了 XLNet,这是一种广义自回归预训练方法,它 (1) 通过最大化分解顺序的所有排列的期望似然性来实现学习双向上下文,以及 (2) 由于其自回归公式,克服了 BERT 的局限性。此外,XLNet 将来自最先进的自回归模型 Transformer-XL 的思想集成到预训练中。在可比较的实验设置下,经验表明,XLNet 在 20 个任务上优于 BERT,通常优势很大,包括问答、自然语言推理、情感分析和文档排序。

此模型由 thomwolf 贡献。 原始代码可以在这里找到。

使用技巧

  • 可以使用 perm_mask 输入在训练和测试时控制特定的注意力模式。
  • 由于在各种分解顺序上训练完全自回归模型的难度,XLNet 仅使用输出 token 的子集作为目标进行预训练,这些目标通过 target_mapping 输入进行选择。
  • 要将 XLNet 用于顺序解码(即,不在完全双向设置中),请使用 perm_masktarget_mapping 输入来控制注意力范围和输出(请参阅 examples/pytorch/text-generation/run_generation.py 中的示例)
  • XLNet 是少数几个没有序列长度限制的模型之一。
  • XLNet 不是传统的自回归模型,而是使用基于此的训练策略。它对句子中的 token 进行排列,然后允许模型使用最后 n 个 token 来预测 token n+1。由于所有这些都是通过掩码完成的,因此句子实际上是以正确的顺序输入到模型中的,但 XLNet 没有为 n+1 掩盖前 n 个 token,而是使用掩码来隐藏 1,…, 序列长度的某个给定排列中的先前 token。
  • XLNet 还使用了与 Transformer-XL 相同的循环机制来构建长期依赖关系。

资源

XLNetConfig

class transformers.XLNetConfig

< >

( vocab_size = 32000 d_model = 1024 n_layer = 24 n_head = 16 d_inner = 4096 ff_activation = 'gelu' untie_r = True attn_type = 'bi' initializer_range = 0.02 layer_norm_eps = 1e-12 dropout = 0.1 mem_len = 512 reuse_len = None use_mems_eval = True use_mems_train = False bi_data = False clamp_len = -1 same_length = False summary_type = 'last' summary_use_proj = True summary_activation = 'tanh' summary_last_dropout = 0.1 start_n_top = 5 end_n_top = 5 pad_token_id = 5 bos_token_id = 1 eos_token_id = 2 **kwargs )

Parameters

  • vocab_size (int, optional, defaults to 32000) — XLNet 模型的词汇表大小。定义了在调用 XLNetModelTFXLNetModel 时,可以通过 inputs_ids 传递的不同 token 的数量。
  • d_model (int, optional, defaults to 1024) — 编码器层和池化层的维度。
  • n_layer (int, optional, defaults to 24) — Transformer 编码器中隐藏层的数量。
  • n_head (int, optional, defaults to 16) — Transformer 编码器中每个注意力层的注意力头的数量。
  • d_inner (int, optional, defaults to 4096) — Transformer 编码器中 “中间” (通常称为前馈)层的维度。
  • ff_activation (strCallable, optional, defaults to "gelu") — 如果是字符串,则为前馈网络中的非线性激活函数(函数或字符串),支持 "gelu""relu""silu""gelu_new"
  • untie_r (bool, optional, defaults to True) — 是否解开相对位置偏置。
  • attn_type (str, optional, defaults to "bi") — 模型使用的注意力类型。对于 XLNet,设置为 "bi";对于 Transformer-XL,设置为 "uni"
  • initializer_range (float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • layer_norm_eps (float, optional, defaults to 1e-12) — 层归一化层使用的 epsilon 值。
  • dropout (float, optional, defaults to 0.1) — 嵌入层、编码器和池化器中所有全连接层的 dropout 概率。
  • mem_len (intNone, optional) — 要缓存的 token 数量。在前向传播中已预先计算的键/值对将不会被重新计算。有关更多信息,请参阅 快速入门
  • reuse_len (int, optional) — 当前批次中要缓存并在未来重用的 token 数量。
  • bi_data (bool, optional, defaults to False) — 是否使用双向输入管道。通常在预训练期间设置为 True,在微调期间设置为 False
  • clamp_len (int, optional, defaults to -1) — 限制所有大于 clamp_len 的相对距离。将此属性设置为 -1 表示不限制。
  • same_length (bool, optional, defaults to False) — 是否对每个 token 使用相同的注意力长度。
  • summary_type (str, optional, defaults to “last”) — 进行序列摘要时使用的参数。用于序列分类和多项选择模型。

    必须是以下选项之一:

    • "last": 采用最后一个 token 的隐藏状态(如 XLNet)。
    • "first": 采用第一个 token 的隐藏状态(如 BERT)。
    • "mean": 采用所有 token 隐藏状态的均值。
    • "cls_index": 提供分类 token 位置的 Tensor(如 GPT/GPT-2)。
    • "attn": 暂未实现,请使用多头注意力。
  • summary_use_proj (bool, optional, defaults to True) — 进行序列摘要时使用的参数。用于序列分类和多项选择模型。

    是否在向量提取后添加投影。

  • summary_activation (str, optional) — 进行序列摘要时使用的参数。用于序列分类和多项选择模型。

    传递 "tanh" 以将 tanh 激活应用于输出,任何其他值都将导致不激活。

  • summary_proj_to_labels (boo, optional, defaults to True) — 用于序列分类和多项选择模型。

    投影输出是否应具有 config.num_labelsconfig.hidden_size 类。

  • summary_last_dropout (float, optional, defaults to 0.1) — 用于序列分类和多项选择模型。

    在投影和激活之后使用的 dropout 比率。

  • start_n_top (int, optional, defaults to 5) — 在 SQuAD 评估脚本中使用。
  • end_n_top (int, optional, defaults to 5) — 在 SQuAD 评估脚本中使用。
  • use_mems_eval (bool, optional, defaults to True) — 模型是否应在评估模式下使用循环记忆机制。
  • use_mems_train (bool, optional, defaults to False) — 模型是否应在训练模式下使用循环记忆机制。

    对于预训练,建议将 use_mems_train 设置为 True。对于微调,建议将 use_mems_train 设置为 False,如 此处 所讨论的。如果将 use_mems_train 设置为 True,则必须确保正确预处理训练批次,例如 batch_1 = [[This line is], [This is the]]batch_2 = [[ the first line], [ second line]],并且所有批次的大小都相等。

这是用于存储 XLNetModelTFXLNetModel 配置的配置类。它用于根据指定的参数实例化 XLNet 模型,定义模型架构。使用默认值实例化配置将产生与 xlnet/xlnet-large-cased 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档以获取更多信息。

示例

>>> from transformers import XLNetConfig, XLNetModel

>>> # Initializing a XLNet configuration
>>> configuration = XLNetConfig()

>>> # Initializing a model (with random weights) from the configuration
>>> model = XLNetModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

XLNetTokenizer

class transformers.XLNetTokenizer

< >

( vocab_file do_lower_case = False remove_space = True keep_accents = False bos_token = '<s>' eos_token = '</s>' unk_token = '<unk>' sep_token = '<sep>' pad_token = '<pad>' cls_token = '<cls>' mask_token = '<mask>' additional_special_tokens = ['<eop>', '<eod>'] sp_model_kwargs: Optional = None **kwargs )

Parameters

  • vocab_file (str) — 包含实例化分词器所需词汇表的 SentencePiece 文件(通常具有 .spm 扩展名)。
  • do_lower_case (bool, 可选, 默认为 False) — 是否在分词时将输入文本转换为小写。
  • remove_space (bool, 可选, 默认为 True) — 是否在分词时去除文本 (删除字符串前后多余的空格)。
  • keep_accents (bool, 可选, 默认为 False) — 是否在分词时保留重音符号。
  • bos_token (str, 可选, 默认为 "<s>") — 序列开始标记,在预训练期间使用。可以用作序列分类器标记。

    当使用特殊标记构建序列时,这不是用于序列开始的标记。使用的标记是 cls_token

  • eos_token (str, 可选, 默认为 "</s>") — 序列结束标记。

    当使用特殊标记构建序列时,这不是用于序列结束的标记。使用的标记是 sep_token

  • unk_token (str, 可选, 默认为 "<unk>") — 未知标记。词汇表中不存在的标记无法转换为 ID,而是设置为此标记。
  • sep_token (str, 可选, 默认为 "<sep>") — 分隔符标记,用于从多个序列构建序列时,例如用于序列分类的两个序列,或用于问答的文本和问题。它也用作使用特殊标记构建的序列的最后一个标记。
  • pad_token (str, 可选, 默认为 "<pad>") — 用于填充的标记,例如在批量处理不同长度的序列时。
  • cls_token (str, 可选, 默认为 "<cls>") — 分类器标记,用于执行序列分类(对整个序列而不是每个标记进行分类)。当使用特殊标记构建时,它是序列的第一个标记。
  • mask_token (str, 可选, 默认为 "<mask>") — 用于掩码值的标记。这是使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • additional_special_tokens (List[str], 可选, 默认为 ['<eop>', '<eod>']) — 分词器使用的其他特殊标记。
  • sp_model_kwargs (dict, 可选) — 将传递给 SentencePieceProcessor.__init__() 方法。 SentencePiece 的 Python 包装器 可用于设置:

    • enable_sampling:启用子词正则化。

    • nbest_size:unigram 的采样参数。对 BPE-Dropout 无效。

      • nbest_size = {0,1}:不执行采样。
      • nbest_size > 1:从 nbest_size 结果中采样。
      • nbest_size < 0:假设 nbest_size 是无限的,并使用前向过滤和后向采样算法从所有假设(lattice)中采样。
    • alpha:unigram 采样的平滑参数,以及 BPE-dropout 的合并操作的 dropout 概率。

  • sp_model (SentencePieceProcessor) — 用于每次转换(字符串、标记和 ID)的 SentencePiece 处理器。

构建 XLNet 分词器。基于 SentencePiece

此分词器继承自 PreTrainedTokenizer,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: List token_ids_1: Optional = None ) List[int]

Parameters

  • token_ids_0 (List[int]) — 将向其添加特殊标记的 ID 列表。
  • token_ids_1 (List[int], 可选) — 用于序列对的可选的第二个 ID 列表。

返回值

List[int]

带有适当特殊标记的 输入 ID 列表。

通过连接和添加特殊标记,从序列或序列对构建模型输入,用于序列分类任务。 XLNet 序列具有以下格式

  • 单个序列:X <sep> <cls>
  • 序列对:A <sep> B <sep> <cls>

get_special_tokens_mask

< >

( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) List[int]

Parameters

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], 可选) — 用于序列对的可选的第二个 ID 列表。
  • already_has_special_tokens (bool, 可选, 默认为 False) — 标记列表是否已使用模型的特殊标记进行格式化。

返回值

List[int]

范围在 [0, 1] 内的整数列表:1 表示特殊标记,0 表示序列标记。

从没有添加特殊标记的标记列表中检索序列 ID。当使用分词器的 prepare_for_model 方法添加特殊标记时,将调用此方法。

create_token_type_ids_from_sequences

< >

( token_ids_0: List token_ids_1: Optional = None ) List[int]

Parameters

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 可选的,用于序列对的第二个 ID 列表。

返回值

List[int]

根据给定的序列列表返回 token type IDs

从传递的两个序列创建掩码,用于序列对分类任务。 XLNet

序列对掩码具有以下格式

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1None,则此方法仅返回掩码的第一部分 (0)。

save_vocabulary

< >

( save_directory: str filename_prefix: Optional = None )

XLNetTokenizerFast

class transformers.XLNetTokenizerFast

< >

( vocab_file = None tokenizer_file = None do_lower_case = False remove_space = True keep_accents = False bos_token = '<s>' eos_token = '</s>' unk_token = '<unk>' sep_token = '<sep>' pad_token = '<pad>' cls_token = '<cls>' mask_token = '<mask>' additional_special_tokens = ['<eop>', '<eod>'] **kwargs )

Parameters

  • vocab_file (str) — SentencePiece 文件(通常带有 .spm 扩展名),其中包含实例化 tokenizer 所需的词汇表。
  • do_lower_case (bool, optional, defaults to True) — 可选的,默认为 True)— 是否在分词时将输入文本转换为小写。
  • remove_space (bool, optional, defaults to True) — 可选的,默认为 True)— 在分词时是否去除文本(删除字符串前后多余的空格)。
  • keep_accents (bool, optional, defaults to False) — 可选的,默认为 False)— 在分词时是否保留重音符号。
  • bos_token (str, optional, defaults to "<s>") — 可选的,默认为 "<s>")— 预训练期间使用的序列开始标记。可以用作序列分类器标记。

    当使用特殊标记构建序列时,这不是用于序列开始的标记。使用的标记是 cls_token

  • eos_token (str, optional, defaults to "</s>") — 可选的,默认为 "</s>")— 序列结束标记。

    当使用特殊标记构建序列时,这不是用于序列结束的标记。使用的标记是 sep_token

  • unk_token (str, optional, defaults to "<unk>") — 可选的,默认为 "<unk>")— 未知标记。词汇表中不存在的标记无法转换为 ID,而是设置为此标记。
  • sep_token (str, optional, defaults to "<sep>") — 可选的,默认为 "<sep>")— 分隔符标记,用于从多个序列构建序列时使用,例如用于序列分类的两个序列,或用于问答的文本和问题。它也用作使用特殊标记构建的序列的最后一个标记。
  • pad_token (str, optional, defaults to "<pad>") — 可选的,默认为 "<pad>")— 用于填充的标记,例如在批处理不同长度的序列时。
  • cls_token (str, optional, defaults to "<cls>") — 可选的,默认为 "<cls>")— 分类器标记,用于进行序列分类(对整个序列而不是每个标记进行分类)。当使用特殊标记构建时,它是序列的第一个标记。
  • mask_token (str, optional, defaults to "<mask>") — 可选的,默认为 "<mask>")— 用于掩码值的标记。这是使用掩码语言建模训练此模型时使用的标记。这是模型将尝试预测的标记。
  • additional_special_tokens (List[str], optional, defaults to ["<eop>", "<eod>"]) — 可选的,默认为 ["<eop>", "<eod>"])— tokenizer 使用的其他特殊标记。
  • sp_model (SentencePieceProcessor) — 用于每次转换(字符串、标记和 ID)的 SentencePiece 处理器。

构建一个“快速” XLNet tokenizer(由 HuggingFace 的 tokenizers 库支持)。基于 Unigram

此 tokenizer 继承自 PreTrainedTokenizerFast,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: List token_ids_1: Optional = None ) List[int]

Parameters

  • token_ids_0 (List[int]) — 将在其上添加特殊标记的 ID 列表。
  • token_ids_1 (List[int], optional) — 可选的,用于序列对的第二个 ID 列表。

返回值

List[int]

带有适当特殊标记的 输入 ID 列表。

通过连接和添加特殊标记,从序列或序列对构建模型输入,用于序列分类任务。 XLNet 序列具有以下格式

  • 单个序列:X <sep> <cls>
  • 序列对:A <sep> B <sep> <cls>

create_token_type_ids_from_sequences

< >

( token_ids_0: List token_ids_1: Optional = None ) List[int]

Parameters

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (List[int], optional) — 可选的,用于序列对的第二个 ID 列表。

返回值

List[int]

根据给定的序列列表返回 token type IDs

从传递的两个序列创建掩码,用于序列对分类任务。 XLNet

序列对掩码具有以下格式

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1None,则此方法仅返回掩码的第一部分 (0)。

XLNet 特定输出

class transformers.models.xlnet.modeling_xlnet.XLNetModelOutput

< >

( last_hidden_state: FloatTensor mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • last_hidden_state (torch.FloatTensor of shape (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已经将过去信息提供给该模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个层的输出以及初始嵌入输出各一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetModel 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutput

< >

( loss: Optional = None logits: FloatTensor = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (形状为 (1,)torch.FloatTensor可选, 当提供 labels 时返回) — 语言建模损失(用于预测下一个 token)。
  • logits (形状为 (batch_size, num_predict, config.vocab_size)torch.FloatTensor) — 语言建模头的预测得分(SoftMax 之前每个词汇 token 的得分)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已经将过去信息提供给该模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个层的输出以及初始嵌入输出各一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetLMHeadModel 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutput

< >

( loss: Optional = None logits: FloatTensor = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (形状为 (1,)torch.FloatTensor可选, 当提供 label 时返回) — 分类(如果 config.num_labels==1 则为回归)损失。
  • logits (形状为 (batch_size, config.num_labels)torch.FloatTensor) — 分类(如果 config.num_labels==1 则为回归)得分(SoftMax 之前)。
  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已经将过去信息提供给该模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个层的输出以及初始嵌入输出各一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForSequenceClassification 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutput

< >

( loss: Optional = None logits: FloatTensor = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (形状为 (1,)torch.FloatTensor可选, 当提供 labels 时返回) — 分类损失。
  • logits (形状为 (batch_size, num_choices)torch.FloatTensor) — num_choices 是输入张量的第二个维度。(参见上文的 input_ids)。

    分类得分(SoftMax 之前)。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已经将过去信息提供给该模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个层的输出以及初始嵌入输出各一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForMultipleChoice 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutput

< >

( loss: Optional = None logits: FloatTensor = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (形状为 (1,)torch.FloatTensor可选, 当提供 labels 时返回) — 分类损失。
  • logits (形状为 (batch_size, sequence_length, config.num_labels)torch.FloatTensor) — 分类得分(SoftMax 之前)。
  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已经将过去信息提供给该模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个层的输出以及初始嵌入输出各一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — Tuple of torch.FloatTensor (one for each layer) of shape (batch_size, num_heads, sequence_length, sequence_length).

    Attentions weights after the attention softmax, used to compute the weighted average in the self-attention heads.

XLNetForTokenClassificationOutput 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutput

< >

( loss: Optional = None start_logits: FloatTensor = None end_logits: FloatTensor = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (torch.FloatTensor of shape (1,), optional, returned when labels is provided) — Total span extraction loss is the sum of a Cross-Entropy for the start and end positions.
  • start_logits (torch.FloatTensor of shape (batch_size, sequence_length,)) — Span-start scores (before SoftMax).
  • end_logits (torch.FloatTensor of shape (batch_size, sequence_length,)) — Span-end scores (before SoftMax).
  • mems (List[torch.FloatTensor] of length config.n_layers) — Contains pre-computed hidden-states. Can be used (see mems input) to speed up sequential decoding. The token ids which have their past given to this model should not be passed as input_ids as they have already been computed.
  • hidden_states (tuple(torch.FloatTensor), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — Tuple of torch.FloatTensor (embeddings 输出 + 每层一个输出) 形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出以及初始 embeddings 输出的隐藏状态。

  • attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — torch.FloatTensor 的元组 (每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnsweringSimple 的输出类型。

class transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutput

< >

( loss: Optional = None start_top_log_probs: Optional = None start_top_index: Optional = None end_top_log_probs: Optional = None end_top_index: Optional = None cls_logits: Optional = None mems: Optional = None hidden_states: Optional = None attentions: Optional = None )

Parameters

  • loss (torch.FloatTensor of shape (1,), optional, returned if both start_positions and end_positions are provided) — 分类损失,为起始 token、结束 token(以及如果提供 is_impossible 则包括 is_impossible)分类损失之和。
  • start_top_log_probs (torch.FloatTensor of shape (batch_size, config.start_n_top), optional, returned if start_positions or end_positions is not provided) — 前 config.start_n_top 个起始 token 可能性的对数概率(束搜索)。
  • start_top_index (torch.LongTensor of shape (batch_size, config.start_n_top), optional, returned if start_positions or end_positions is not provided) — 前 config.start_n_top 个起始 token 可能性的索引(束搜索)。
  • end_top_log_probs (torch.FloatTensor of shape (batch_size, config.start_n_top * config.end_n_top), optional, returned if start_positions or end_positions is not provided) — 前 config.start_n_top * config.end_n_top 个结束 token 可能性的对数概率(束搜索)。
  • end_top_index (torch.LongTensor of shape (batch_size, config.start_n_top * config.end_n_top), optional, returned if start_positions or end_positions is not provided) — 前 config.start_n_top * config.end_n_top 个结束 token 可能性的索引(束搜索)。
  • cls_logits (torch.FloatTensor of shape (batch_size,), optional, returned if start_positions or end_positions is not provided) — 答案的 is_impossible 标签的对数概率。
  • mems (List[torch.FloatTensor] of length config.n_layers) — 包含预计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。 已经将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(torch.FloatTensor), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — torch.FloatTensor 的元组 (embeddings 输出 + 每层一个输出) 形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出以及初始 embedding 输出的隐藏状态。

  • attentions (tuple(torch.FloatTensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — torch.FloatTensor 的元组 (每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnswering 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutput

< >

( last_hidden_state: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • last_hidden_state (tf.Tensor of shape (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。 如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[tf.Tensor] of length config.n_layers) — 包含预计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。 已经将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已经被计算过了。
  • hidden_states (tuple(tf.Tensor), optional, returned when output_hidden_states=True is passed or when config.output_hidden_states=True) — tf.Tensor 的元组 (embeddings 输出 + 每层一个输出) 形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出以及初始 embedding 输出的隐藏状态。

  • attentions (tuple(tf.Tensor), optional, returned when output_attentions=True is passed or when config.output_attentions=True) — tf.Tensor 的元组 (每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetModel 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutput

< >

( loss: tf.Tensor | None = None logits: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 语言建模损失(用于预测下一个词元)。
  • logits (tf.Tensor,形状为 (batch_size, num_predict, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前的每个词汇表词元的分数)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将其过去信息提供给此模型的词元 ID 不应作为 input_ids 传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个层的输出一个,加上嵌入的初始输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetLMHeadModel 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutput

< >

( loss: tf.Tensor | None = None logits: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • loss (tf.Tensor,形状为 (1,)可选,当提供 label 时返回) — 分类(或回归,如果 config.num_labels==1)损失。
  • logits (tf.Tensor,形状为 (batch_size, config.num_labels)) — 分类(或回归,如果 config.num_labels==1)分数(SoftMax 之前)。
  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将其过去信息提供给此模型的词元 ID 不应作为 input_ids 传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个层的输出一个,加上嵌入的初始输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForSequenceClassification 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutput

< >

( loss: tf.Tensor | None = None logits: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。
  • logits (tf.Tensor,形状为 (batch_size, num_choices)) — num_choices 是输入张量的第二个维度。(参见上面的 input_ids)。

    分类分数(SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将其过去信息提供给此模型的词元 ID 不应作为 input_ids 传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个层的输出一个,加上嵌入的初始输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForMultipleChoice 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutput

< >

( loss: tf.Tensor | None = None logits: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。
  • logits (tf.Tensor,形状为 (batch_size, sequence_length, config.num_labels)) — 分类分数(SoftMax 之前)。
  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将其过去信息提供给此模型的词元 ID 不应作为 input_ids 传递,因为它们已被计算。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个层的输出一个,加上嵌入的初始输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForTokenClassificationOutput 的输出类型。

class transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput

< >

( loss: tf.Tensor | None = None start_logits: tf.Tensor = None end_logits: tf.Tensor = None mems: List[tf.Tensor] | None = None hidden_states: Tuple[tf.Tensor, ...] | None = None attentions: Tuple[tf.Tensor, ...] | None = None )

Parameters

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 总跨度提取损失是起始位置和结束位置的交叉熵损失之和。
  • start_logits (tf.Tensor,形状为 (batch_size, sequence_length,)) — 跨度起始位置得分(在 SoftMax 之前)。
  • end_logits (tf.Tensor,形状为 (batch_size, sequence_length,)) — 跨度结束位置得分(在 SoftMax 之前)。
  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForQuestionAnsweringSimple 的输出类型。

Pytorch
隐藏 Pytorch 内容

XLNetModel

class transformers.XLNetModel

< >

( config )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

裸 XLNet 模型 Transformer,输出原始隐藏状态,顶部没有任何特定的 head。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None token_type_ids: Optional = None input_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetModelOutputtuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 输入序列 token 在词汇表中的索引。

    索引可以使用 AutoTokenizer 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在 padding token 索引上执行注意力机制。掩码值在 [0, 1] 中选择:

    • 1 表示 token 未被掩码
    • 0 表示 token 已被掩码

    什么是注意力掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入 token 的注意力模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个 token 都会关注所有其他 token(完全双向注意力)。仅在预训练期间(用于定义因式分解顺序)或顺序解码(生成)中使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出 token。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 分段 token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 ID?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,用于避免在 padding token 索引上执行注意力机制。attention_mask 的负数,即真实 token 为 0,padding 为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示 token 已被掩码
    • 0 表示 token 未被掩码

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使自注意力模块的选定 head 失效。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩码
    • 0 表示 head 已被掩码
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.models.xlnet.modeling_xlnet.XLNetModelOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetModelOutput 或一个 torch.FloatTensor 元组(如果传递 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • last_hidden_state (torch.FloatTensor,形状为 (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetModel forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetModel
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetModel.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state

XLNetLMHeadModel

class transformers.XLNetLMHeadModel

< >

( config )

Parameters

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。请查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个语言建模头(线性层,其权重与输入嵌入层绑定)。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None token_type_ids: Optional = None input_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutput or tuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在 padding token 索引上执行 attention 的 Mask。 Mask 值在 [0, 1] 中选择:

    • 1 表示 未被 Mask 的 tokens,
    • 0 表示 已被 Mask 的 tokens。

    什么是 attention masks?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的 hidden-states(请参阅下面的 mems 输出)。 可用于加速顺序解码。 已将其过去信息提供给此模型的 token ids 不应作为 input_ids 传递,因为它们已被计算。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — Mask,用于指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个 token 都关注所有其他 token(完全双向 attention)。 仅在预训练期间(用于定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — Mask,用于指示要使用的输出 tokens。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。 仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — Segment token 索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 用于避免在 padding token 索引上执行 attention 的 Mask。 attention_mask 的负数,即真实 token 为 0,padding 为 1,这与原始代码库保持兼容。

    Mask 值在 [0, 1] 中选择:

    • 1 表示 已被 Mask 的 tokens,
    • 0 表示 未被 Mask 的 tokens。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于 nullify self-attention 模块的选定 head 的 Mask。 Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 已被 Mask
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attention tensors。 有关更多详细信息,请参阅返回的 tensors 下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。 有关更多详细信息,请参阅返回的 tensors 下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通 tuple。
  • labels (torch.LongTensor,形状为 (batch_size, num_predict)可选) — 用于 masked language modeling 的标签。 num_predict 对应于 target_mapping.shape[1]。 如果 target_mappingNone,则 num_predict 对应于 sequence_length

    标签应对应于应预测的 masked 输入词,并取决于 target_mapping。 请注意,为了执行标准自回归语言建模,必须将 token 添加到 input_ids(请参阅 prepare_inputs_for_generation 函数和下面的示例)

    索引在 [-100, 0, ..., config.vocab_size] 中选择。 所有设置为 -100 的标签都将被忽略,损失仅针对 [0, ..., config.vocab_size] 中的标签计算

返回值

transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetLMHeadModelOutputtorch.FloatTensor 的 tuple(如果传递了 return_dict=False 或者当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) 语言建模损失(用于下一个 token 预测)。

  • logits (torch.FloatTensor,形状为 (batch_size, num_predict, config.vocab_size)) — 语言建模头的预测分数(SoftMax 之前每个词汇表 token 的分数)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetLMHeadModel forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetLMHeadModel
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = XLNetLMHeadModel.from_pretrained("xlnet/xlnet-large-cased")

>>> # We show how to setup inputs to predict a next token using a bi-directional context.
>>> input_ids = torch.tensor(
...     tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=False)
... ).unsqueeze(
...     0
... )  # We will predict the masked token
>>> perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float)
>>> perm_mask[:, :, -1] = 1.0  # Previous tokens don't see last token
>>> target_mapping = torch.zeros(
...     (1, 1, input_ids.shape[1]), dtype=torch.float
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(input_ids, perm_mask=perm_mask, target_mapping=target_mapping)
>>> next_token_logits = outputs[
...     0
... ]  # Output has shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

>>> # The same way can the XLNetLMHeadModel be used to be trained by standard auto-regressive language modeling.
>>> input_ids = torch.tensor(
...     tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=False)
... ).unsqueeze(
...     0
... )  # We will predict the masked token
>>> labels = torch.tensor(tokenizer.encode("cute", add_special_tokens=False)).unsqueeze(0)
>>> assert labels.shape[0] == 1, "only one word will be predicted"
>>> perm_mask = torch.zeros((1, input_ids.shape[1], input_ids.shape[1]), dtype=torch.float)
>>> perm_mask[
...     :, :, -1
... ] = 1.0  # Previous tokens don't see last token as is done in standard auto-regressive lm training
>>> target_mapping = torch.zeros(
...     (1, 1, input_ids.shape[1]), dtype=torch.float
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(input_ids, perm_mask=perm_mask, target_mapping=target_mapping, labels=labels)
>>> loss = outputs.loss
>>> next_token_logits = (
...     outputs.logits
... )  # Logits have shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

XLNetForSequenceClassification

class transformers.XLNetForSequenceClassification

< >

( config )

Parameters

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。请查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个序列分类/回归头(池化输出顶部的线性层),例如用于 GLUE 任务。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None token_type_ids: Optional = None input_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutput or tuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    索引可以使用 AutoTokenizer 获得。参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详情。

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在 padding token 索引上执行 attention 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 tokens 未被 Mask
    • 0 表示 tokens 已被 Mask

    什么是 attention masks?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态 (参见下面的 mems 输出)。可用于加速顺序解码。已经为其提供过去信息的 token ids 不应作为 input_ids 传递,因为它们已经被计算过了。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — Mask,用于指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend 到 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend 到 j。

    如果未设置,则每个 token attend 到所有其他 token (完全双向 attention)。仅在预训练期间 (用于定义分解顺序) 或顺序解码 (生成) 时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — Mask,用于指示要使用的输出 tokens。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码 (生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — Segment token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 用于避免在 padding token 索引上执行 attention 的 Mask。attention_mask 的负数,即真实 tokens 为 0,padding 为 1,这与原始代码库保持兼容。

    Mask 值在 [0, 1] 中选择:

    • 1 表示 tokens 已被 Mask
    • 0 表示 tokens 未被 Mask

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于 nullify self-attention 模块的选定 heads 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 已被 Mask
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attentions tensors。有关更多详细信息,请参阅返回的 tensors 下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。有关更多详细信息,请参阅返回的 tensors 下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯 tuple。
  • labels (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 中。如果 config.num_labels == 1,则计算回归损失 (均方误差损失);如果 config.num_labels > 1,则计算分类损失 (交叉熵损失)。

返回值

transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForSequenceClassificationOutput 或一个 torch.FloatTensor 的 tuple (如果传递 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 label 时返回) — 分类 (或回归,如果 config.num_labels==1) 损失。

  • logits (torch.FloatTensor,形状为 (batch_size, config.num_labels)) — 分类 (或回归,如果 config.num_labels==1) 分数 (在 SoftMax 之前)。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForSequenceClassification forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

单标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, XLNetForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_id = logits.argmax().item()

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased", num_labels=num_labels)

>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss

多标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, XLNetForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased", problem_type="multi_label_classification")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = XLNetForSequenceClassification.from_pretrained(
...     "xlnet/xlnet-base-cased", num_labels=num_labels, problem_type="multi_label_classification"
... )

>>> labels = torch.sum(
...     torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).loss

XLNetForMultipleChoice

class transformers.XLNetForMultipleChoice

< >

( config )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

XLNet 模型,顶部带有 multiple choice 分类 head (pooled 输出顶部的线性层和一个 softmax),例如用于 RACE/SWAG 任务。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None token_type_ids: Optional = None input_mask: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutputtuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, num_choices, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    索引可以使用 AutoTokenizer 获得。参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详情。

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, num_choices, sequence_length)可选) — 用于避免在 padding token 索引上执行 attention 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 tokens 未被 Mask
    • 0 表示 tokens 已被 Mask

    什么是 attention masks?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态 (参见下面的 mems 输出)。可用于加速顺序解码。已经为其提供过去信息的 token ids 不应作为 input_ids 传递,因为它们已经被计算过了。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — Mask,用于指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend 到 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend 到 j。

    如果未设置,则每个 token attend 到所有其他 token (完全双向 attention)。仅在预训练期间 (用于定义分解顺序) 或顺序解码 (生成) 时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — Mask,用于指示要使用的输出 tokens。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于部分预测或顺序解码 (生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, num_choices, sequence_length)可选) — Segment token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor,形状为 batch_size, num_choices, sequence_length可选) — 用于避免在 padding 标记索引上执行 attention 的掩码。是 attention_mask 的负数,即真实标记为 0,padding 为 1,这样是为了与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示标记被掩盖
    • 0 表示标记未被掩盖

    input_maskattention_mask 只能使用其中一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于 nullify self-attention 模块中选定 head 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 被掩盖
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, num_choices, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attention 张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算多项选择分类损失的标签。索引应在 [0, ..., num_choices-1] 中,其中 num_choices 是输入张量的第二个维度的大小。(请参阅上面的 input_ids

返回值

transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForMultipleChoiceOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。

  • logits (torch.FloatTensor,形状为 (batch_size, num_choices)) — num_choices 是输入张量的第二个维度。(请参阅上面的 input_ids)。

    分类得分(在 SoftMax 之前)。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForMultipleChoice forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForMultipleChoice
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForMultipleChoice.from_pretrained("xlnet/xlnet-base-cased")

>>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced."
>>> choice0 = "It is eaten with a fork and a knife."
>>> choice1 = "It is eaten while held in the hand."
>>> labels = torch.tensor(0).unsqueeze(0)  # choice0 is correct (according to Wikipedia ;)), batch size 1

>>> encoding = tokenizer([prompt, prompt], [choice0, choice1], return_tensors="pt", padding=True)
>>> outputs = model(**{k: v.unsqueeze(0) for k, v in encoding.items()}, labels=labels)  # batch size is 1

>>> # the linear classifier still needs to be trained
>>> loss = outputs.loss
>>> logits = outputs.logits

XLNetForTokenClassification

class transformers.XLNetForTokenClassification

< >

( config )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个标记分类 head(位于 hidden-states 输出之上的线性层),例如用于命名实体识别 (NER) 任务。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None token_type_ids: Optional = None input_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutputtuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详情。

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在 padding 标记索引上执行 attention 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示标记未被掩盖
    • 0 表示标记被掩盖

    什么是 attention 掩码?

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含预先计算的 hidden-states(请参阅下面的 mems 输出)。 可用于加速顺序解码。 已将其过去信息提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 用于指示每个输入标记的 attention 模式的掩码,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend to j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend to j。

    如果未设置,则每个标记 attend to 所有其他标记(完全双向 attention)。仅在预训练期间(用于定义因式分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 用于指示要使用的输出标记的掩码。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个标记上。 仅在预训练期间用于部分预测或用于顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 段落标记索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于句子 A 标记,
    • 1 对应于句子 B 标记。

    什么是标记类型 ID?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 用于避免在 padding 标记索引上执行 attention 的掩码。是 attention_mask 的负数,即真实标记为 0,padding 为 1,这样是为了与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示标记被掩盖
    • 0 表示标记未被掩盖

    input_maskattention_mask 只能使用其中一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于 nullify self-attention 模块中选定 head 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 被掩盖
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attention 张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是纯粹的元组。
  • labels (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算多项选择分类损失的标签。索引应在 [0, ..., num_choices] 范围内,其中 num_choices 是输入张量的第二个维度的大小(参见上面的 input_ids)。

返回值

transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForTokenClassificationOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。

  • logits (torch.FloatTensor,形状为 (batch_size, sequence_length, config.num_labels)) — 分类得分(在 SoftMax 之前)。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForTokenClassification 的 forward 方法,重写了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForTokenClassification
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForTokenClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer(
...     "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="pt"
... )

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_token_class_ids = logits.argmax(-1)

>>> # Note that tokens are classified rather then input words which means that
>>> # there might be more predicted token classes than words.
>>> # Multiple token classes might account for the same word
>>> predicted_tokens_classes = [model.config.id2label[t.item()] for t in predicted_token_class_ids[0]]

>>> labels = predicted_token_class_ids
>>> loss = model(**inputs, labels=labels).loss

XLNetForQuestionAnsweringSimple

class transformers.XLNetForQuestionAnsweringSimple

< >

( config )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个跨度分类头,用于抽取式问答任务,如 SQuAD(隐藏状态输出顶部的线性层,用于计算 span start logitsspan end logits)。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None mems: Optional = None perm_mask: Optional = None target_mapping: Optional = None token_type_ids: Optional = None input_mask: Optional = None head_mask: Optional = None inputs_embeds: Optional = None start_positions: Optional = None end_positions: Optional = None use_mems: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutputtuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,以避免对 padding token 索引执行 attention。 Mask 值在 [0, 1] 中选择:

    • 1 表示 未被掩盖 的 tokens,
    • 0 表示 已被掩盖 的 tokens。

    什么是 attention 掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(请参阅下面的 mems 输出)。可用于加速顺序解码。已将其过去状态提供给此模型的 token ids 不应作为 input_ids 传递,因为它们已被计算。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个 token 关注所有其他 token(完全双向 attention)。仅在预训练期间(用于定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,指示要使用的输出 token。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。 仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 分段 token 索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 IDs?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,以避免对 padding token 索引执行 attention。 attention_mask 的负数,即对于真实 token 为 0,对于 padding 为 1,这是为了与原始代码库保持兼容。

    Mask 值在 [0, 1] 中选择:

    • 1 表示 已被掩盖 的 tokens,
    • 0 表示 未被掩盖 的 tokens。

    你只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使 self-attention 模块的选定 head 无效。 Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 已被掩盖
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更好地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attention 张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯粹的元组。
  • start_positions (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算 token 分类损失的标签跨度开始位置(索引)。 位置被限制为序列的长度 (sequence_length)。 序列之外的位置不计入损失计算。
  • end_positions (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算 token 分类损失的标签跨度结束位置(索引)。 位置被限制为序列的长度 (sequence_length)。 序列之外的位置不计入损失计算。

返回值

transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringSimpleOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 labels 时返回) — 总跨度提取损失是开始和结束位置的交叉熵之和。

  • start_logits (torch.FloatTensor,形状为 (batch_size, sequence_length,)) — 跨度开始得分(在 SoftMax 之前)。

  • end_logits (torch.FloatTensor,形状为 (batch_size, sequence_length,)) — 跨度结束得分(在 SoftMax 之前)。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnsweringSimple 的 forward 方法,重写了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForQuestionAnsweringSimple
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForQuestionAnsweringSimple.from_pretrained("xlnet/xlnet-base-cased")

>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"

>>> inputs = tokenizer(question, text, return_tensors="pt")
>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> answer_start_index = outputs.start_logits.argmax()
>>> answer_end_index = outputs.end_logits.argmax()

>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]

>>> # target is "nice puppet"
>>> target_start_index = torch.tensor([14])
>>> target_end_index = torch.tensor([15])

>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = outputs.loss

XLNetForQuestionAnswering

class transformers.XLNetForQuestionAnswering

< >

( config )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个跨度分类头,用于抽取式问答任务,如 SQuAD(隐藏状态输出顶部的线性层,用于计算 span start logitsspan end logits)。

此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: 可选的 = None attention_mask: 可选的 = None mems: 可选的 = None perm_mask: 可选的 = None target_mapping: 可选的 = None token_type_ids: 可选的 = None input_mask: 可选的 = None head_mask: 可选的 = None inputs_embeds: 可选的 = None start_positions: 可选的 = None end_positions: 可选的 = None is_impossible: 可选的 = None cls_index: 可选的 = None p_mask: 可选的 = None use_mems: 可选的 = None output_attentions: 可选的 = None output_hidden_states: 可选的 = None return_dict: 可选的 = None **kwargs ) transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutputtuple(torch.FloatTensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    索引可以使用 AutoTokenizer 获得。 参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详情。

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在填充标记索引上执行注意力机制。 掩码值在 [0, 1] 中选择:

    • 1 表示未被掩码的标记,
    • 0 表示被掩码的标记。

    什么是注意力掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。 可用于加速顺序解码。 已将其过去信息提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入标记的注意力模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个标记都关注所有其他标记(完全双向注意力)。 仅在预训练期间(用于定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出标记。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个标记上。 仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 分段标记索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于句子 A 标记,
    • 1 对应于句子 B 标记。

    什么是标记类型 ID?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,用于避免在填充标记索引上执行注意力机制。 attention_mask 的负值,即真实标记为 0,填充为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示被掩码的标记,
    • 0 表示未被掩码的标记。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使自注意力模块的选定头无效。 掩码值在 [0, 1] 中选择:

    • 1 表示头未被掩码
    • 0 表示头被掩码
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。
  • start_positions (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算标记分类损失的带标签跨度开始位置(索引)的标签。 位置被限制在序列的长度 (sequence_length) 内。 序列之外的位置不计入损失计算。
  • end_positions (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算标记分类损失的带标签跨度结束位置(索引)的标签。 位置被限制在序列的长度 (sequence_length) 内。 序列之外的位置不计入损失计算。
  • is_impossible (torch.LongTensor,形状为 (batch_size,)可选) — 问题是否有答案或无答案的标签 (SQuAD 2.0)
  • cls_index (torch.LongTensor,形状为 (batch_size,)可选) — 用于计算答案合理性的分类标记位置(索引)的标签。
  • p_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 可选的标记掩码,这些标记不能在答案中(例如 [CLS], [PAD], …)。 1.0 表示标记应被掩码。 0.0 表示标记未被掩码。

返回值

transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutputtuple(torch.FloatTensor)

一个 transformers.models.xlnet.modeling_xlnet.XLNetForQuestionAnsweringOutputtorch.FloatTensor 元组(如果传递 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (torch.FloatTensor,形状为 (1,)可选,如果同时提供 start_positionsend_positions 则返回) — 分类损失,为开始标记、结束标记(以及如果提供,则为 is_impossible)分类损失的总和。

  • start_top_log_probs (torch.FloatTensor,形状为 (batch_size, config.start_n_top)可选,如果未提供 start_positionsend_positions 则返回) — 顶部 config.start_n_top 开始标记可能性的对数概率(集束搜索)。

  • start_top_index (torch.LongTensor,形状为 (batch_size, config.start_n_top)可选,如果未提供 start_positionsend_positions 则返回) — 顶部 config.start_n_top 开始标记可能性的索引(集束搜索)。

  • end_top_log_probs (torch.FloatTensor,形状为 (batch_size, config.start_n_top * config.end_n_top)可选,如果未提供 start_positionsend_positions 则返回) — 顶部 config.start_n_top * config.end_n_top 结束标记可能性的对数概率(集束搜索)。

  • end_top_index (torch.LongTensor,形状为 (batch_size, config.start_n_top * config.end_n_top)可选,如果未提供 start_positionsend_positions 则返回) — 顶部 config.start_n_top * config.end_n_top 结束标记可能性的索引(集束搜索)。

  • cls_logits (torch.FloatTensor,形状为 (batch_size,)可选,如果未提供 start_positionsend_positions 则返回) — 答案的 is_impossible 标签的对数概率。

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可以用于(参见 mems 输入)加速顺序解码。已将过去信息提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。

  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出层 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

XLNetForQuestionAnswering forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, XLNetForQuestionAnswering
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = XLNetForQuestionAnswering.from_pretrained("xlnet/xlnet-base-cased")

>>> input_ids = torch.tensor(tokenizer.encode("Hello, my dog is cute", add_special_tokens=True)).unsqueeze(
...     0
... )  # Batch size 1
>>> start_positions = torch.tensor([1])
>>> end_positions = torch.tensor([3])
>>> outputs = model(input_ids, start_positions=start_positions, end_positions=end_positions)

>>> loss = outputs.loss
TensorFlow
隐藏 TensorFlow 内容

TFXLNetModel

class transformers.TFXLNetModel

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法加载模型权重。

裸 XLNet 模型 Transformer,输出原始隐藏状态,顶部没有任何特定的 head。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutputtuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,以避免对填充标记索引执行注意力机制。掩码值在 [0, 1] 中选择:

    • 1 表示未被掩码的标记,
    • 0 表示被掩码的标记。

    什么是注意力掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入标记的注意力模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 注意 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不注意 j。

    如果未设置,则每个标记都会注意所有其他标记(完全双向注意力)。仅在预训练期间(用于定义因式分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出标记。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个标记上。仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 分段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于句子 A 标记,
    • 1 对应于句子 B 标记。

    什么是标记类型 ID?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,以避免对填充标记索引执行注意力机制。attention_mask 的负数,即对于真实标记为 0,对于填充为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示被掩码的标记,
    • 0 表示未被掩码的标记。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使自注意力模块的选定头无效。掩码值在 [0, 1] 中选择:

    • 1 表示头未被掩码
    • 0 表示头被掩码
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更好地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通的元组。

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetModelOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • last_hidden_state (tf.Tensor,形状为 (batch_size, num_predict, hidden_size)) — 模型最后一层的隐藏状态序列。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetModel 前向方法覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetModel.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)

>>> last_hidden_states = outputs.last_hidden_state

TFXLNetLMHeadModel

class transformers.TFXLNetLMHeadModel

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法加载模型权重。

XLNet 模型,顶部带有一个语言建模头(线性层,其权重与输入嵌入层绑定)。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutputtuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 了解详情。

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在 padding token 索引上执行 attention。 掩码值在 [0, 1] 中选择:

    • 1 表示 未被掩码 的 tokens,
    • 0 表示 已被掩码 的 tokens。

    什么是 attention 掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。 可以用于加速顺序解码。 已经将其过去状态提供给此模型的 token IDs 不应作为 input_ids 传递,因为它们已经被计算过了。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend to j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend to j。

    如果未设置,则每个 token attend to 所有其他 token(完全双向 attention)。 仅在预训练期间(用于定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出 tokens。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。 仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — Segment token 索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,用于避免在 padding token 索引上执行 attention。 与 attention_mask 相反,即真实 tokens 为 0,padding 为 1,保留它是为了与原始代码库兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示 已被掩码 的 tokens,
    • 0 表示 未被掩码 的 tokens。

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使 self-attention 模块的选定 heads 无效。 掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩码
    • 0 表示 head 已被掩码
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attention tensors。 有关更多详细信息,请参阅返回的 tensors 下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。 有关更多详细信息,请参阅返回的 tensors 下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯 tuple。
  • labels (tf.Tensor,形状为 (batch_size, sequence_length)可选) — 用于计算交叉熵分类损失的标签。 索引应在 [0, ..., config.vocab_size - 1] 中。

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetLMHeadModelOutput 或一个 tf.Tensor 的 tuple (如果传递了 return_dict=False 或者当 config.return_dict=False 时),包括取决于配置 (XLNetConfig) 和输入的各种元素。

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) 语言建模损失(用于下一个 token 预测)。

  • logits (tf.Tensor,形状为 (batch_size, num_predict, config.vocab_size)) — 语言建模 head 的预测分数(SoftMax 之前每个词汇表 token 的分数)。

    num_predict 对应于 target_mapping.shape[1]。如果 target_mappingNone,则 num_predict 对应于 sequence_length

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetLMHeadModel 前向方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> import tensorflow as tf
>>> import numpy as np
>>> from transformers import AutoTokenizer, TFXLNetLMHeadModel

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-large-cased")
>>> model = TFXLNetLMHeadModel.from_pretrained("xlnet/xlnet-large-cased")

>>> # We show how to setup inputs to predict a next token using a bi-directional context.
>>> input_ids = tf.constant(tokenizer.encode("Hello, my dog is very <mask>", add_special_tokens=True))[
...     None, :
... ]  # We will predict the masked token

>>> perm_mask = np.zeros((1, input_ids.shape[1], input_ids.shape[1]))
>>> perm_mask[:, :, -1] = 1.0  # Previous tokens don't see last token

>>> target_mapping = np.zeros(
...     (1, 1, input_ids.shape[1])
... )  # Shape [1, 1, seq_length] => let's predict one token
>>> target_mapping[
...     0, 0, -1
... ] = 1.0  # Our first (and only) prediction will be the last token of the sequence (the masked token)

>>> outputs = model(
...     input_ids,
...     perm_mask=tf.constant(perm_mask, dtype=tf.float32),
...     target_mapping=tf.constant(target_mapping, dtype=tf.float32),
... )

>>> next_token_logits = outputs[
...     0
... ]  # Output has shape [target_mapping.size(0), target_mapping.size(1), config.vocab_size]

TFXLNetForSequenceClassification

class transformers.TFXLNetForSequenceClassification

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法来加载模型权重。

XLNet 模型,顶部带有一个序列分类/回归头(池化输出顶部的线性层),例如用于 GLUE 任务。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutputtuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 了解详情。

    什么是输入 IDs?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在 padding token 索引上执行 attention。 掩码值在 [0, 1] 中选择:

    • 1 表示 未被掩码 的 tokens,
    • 0 表示 已被掩码 的 tokens。

    什么是 attention 掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(参见下面的 mems 输出)。 可以用于加速顺序解码。 已经将其过去状态提供给此模型的 token IDs 不应作为 input_ids 传递,因为它们已经被计算过了。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入 token 的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend to j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend to j。

    如果未设置,则每个 token attend to 所有其他 token(完全双向 attention)。 仅在预训练期间(用于定义分解顺序)或顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出 tokens。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。 仅在预训练期间用于部分预测或顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — Segment token 索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor of shape batch_size, sequence_length, optional) — 用于避免在 padding 标记索引上执行 attention 的掩码。是 attention_mask 的负数,即真实标记为 0,padding 为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示标记被 masked
    • 0 表示标记 not masked

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 用于置空 self-attention 模块中选定 head 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head not masked
    • 0 表示 head 被 masked
  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有 attention 层的 attentions 张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的 hidden states。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。
  • labels (tf.Tensor of shape (batch_size,), optional) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 中。如果 config.num_labels == 1,则计算回归损失(均方误差损失);如果 config.num_labels > 1,则计算分类损失(交叉熵损失)。

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutput or tuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForSequenceClassificationOutputtf.Tensor 元组(如果传递了 return_dict=False 或者当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (tf.Tensor of shape (1,), optional, 当提供 label 时返回) — 分类(或回归,如果 config.num_labels==1)损失。

  • logits (tf.Tensor of shape (batch_size, config.num_labels)) — 分类(或回归,如果 config.num_labels==1)得分(在 SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForSequenceClassification 前向方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForSequenceClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")

>>> logits = model(**inputs).logits

>>> predicted_class_id = int(tf.math.argmax(logits, axis=-1)[0])
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TFXLNetForSequenceClassification.from_pretrained("xlnet/xlnet-base-cased", num_labels=num_labels)

>>> labels = tf.constant(1)
>>> loss = model(**inputs, labels=labels).loss

TFXLNetForMultipleChoice

class transformers.TFXLNetForMultipleChoice

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

XLNET 模型,顶部带有多项选择分类头(池化输出顶部的线性层和一个 softmax),例如用于 RocStories/SWAG 任务。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutput or tuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor of shape (batch_size, num_choices, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor of shape (batch_size, num_choices, sequence_length), optional) — 用于避免在 padding 标记索引上执行 attention 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示标记 not masked
    • 0 表示标记被 masked

    什么是 attention 掩码?

  • mems (List[torch.FloatTensor] of length config.n_layers) — 包含预先计算的 hidden-states(参见下面的 mems 输出)。可用于加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

    use_mems 必须设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor of shape (batch_size, sequence_length, sequence_length), optional) — 掩码,用于指示每个输入标记的 attention 模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个标记都关注所有其他标记(完全双向 attention)。仅在预训练期间(用于定义分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor of shape (batch_size, num_predict, sequence_length), optional) — 掩码,用于指示要使用的输出标记。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个标记上。仅在预训练期间用于部分预测或用于顺序解码(生成)。
  • token_type_ids (torch.LongTensor of shape (batch_size, num_choices, sequence_length), optional) — 分段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 句子 A 标记,
    • 1 对应于 句子 B 标记。

    什么是标记类型 ID?

  • input_mask (torch.FloatTensor of shape batch_size, num_choices, sequence_length, optional) — 用于避免在 padding 标记索引上执行 attention 的掩码。是 attention_mask 的负数,即真实标记为 0,padding 为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示标记被 masked
    • 0 表示标记 not masked

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 用于置空 self-attention 模块中选定 head 的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head not masked
    • 0 表示 head 被 masked
  • inputs_embeds (torch.FloatTensor of shape (batch_size, num_choices, sequence_length, hidden_size), optional) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有 attention 层的 attentions 张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的 hidden states。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。
  • labels (tf.Tensor,形状为 (batch_size,)可选) — 用于计算多项选择分类损失的标签。索引应在 [0, ..., num_choices] 中,其中 num_choices 是输入张量第二个维度的大小。(请参阅上面的 input_ids

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForMultipleChoiceOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。

  • logits (tf.Tensor,形状为 (batch_size, num_choices)) — num_choices 是输入张量的第二个维度。(请参阅上面的input_ids)。

    分类得分(在 SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForMultipleChoice 前向方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForMultipleChoice
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForMultipleChoice.from_pretrained("xlnet/xlnet-base-cased")

>>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced."
>>> choice0 = "It is eaten with a fork and a knife."
>>> choice1 = "It is eaten while held in the hand."

>>> encoding = tokenizer([prompt, prompt], [choice0, choice1], return_tensors="tf", padding=True)
>>> inputs = {k: tf.expand_dims(v, 0) for k, v in encoding.items()}
>>> outputs = model(inputs)  # batch size is 1

>>> # the linear classifier still needs to be trained
>>> logits = outputs.logits

TFXLNetForTokenClassification

class transformers.TFXLNetForTokenClassification

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

XLNet 模型,顶部带有一个标记分类 head(位于 hidden-states 输出之上的线性层),例如用于命名实体识别 (NER) 任务。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutputtuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在填充标记索引上执行注意力机制。掩码值在 [0, 1] 中选择:

    • 1 表示标记未被掩盖
    • 0 表示标记被掩盖

    什么是注意力掩码?

  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(请参阅下面的 mems 输出)。 可用于加速顺序解码。 已将其过去信息提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor,形状为 (batch_size, sequence_length, sequence_length)可选) — 掩码,用于指示每个输入标记的注意力模式,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i 关注 j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不关注 j。

    如果未设置,则每个标记都关注所有其他标记(完全双向注意力)。 仅在预训练期间(用于定义分解顺序)或用于顺序解码(生成)时使用。

  • target_mapping (torch.FloatTensor,形状为 (batch_size, num_predict, sequence_length)可选) — 掩码,用于指示要使用的输出标记。 如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个标记上。 仅在预训练期间用于部分预测或用于顺序解码(生成)。
  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 段落标记索引,用于指示输入的第一部分和第二部分。 索引在 [0, 1] 中选择:

    • 0 对应于句子 A 标记,
    • 1 对应于句子 B 标记。

    什么是标记类型 ID?

  • input_mask (torch.FloatTensor,形状为 batch_size, sequence_length可选) — 掩码,用于避免在填充标记索引上执行注意力机制。attention_mask 的负数,即,真实标记为 0,填充为 1,这与原始代码库保持兼容。

    掩码值在 [0, 1] 中选择:

    • 1 表示标记被掩盖
    • 0 表示标记未被掩盖

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使自注意力模块的选定头无效。 掩码值在 [0, 1] 中选择:

    • 1 表示头未被掩盖
    • 0 表示头被掩盖
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (tf.Tensor,形状为 (batch_size, sequence_length)可选) — 用于计算标记分类损失的标签。 索引应在 [0, ..., config.num_labels - 1] 中。

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutputtuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForTokenClassificationOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (tf.Tensor,形状为 (1,)可选,当提供 labels 时返回) — 分类损失。

  • logits (tf.Tensor,形状为 (batch_size, sequence_length, config.num_labels)) — 分类得分(在 SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForTokenClassification 前向方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForTokenClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForTokenClassification.from_pretrained("xlnet/xlnet-base-cased")

>>> inputs = tokenizer(
...     "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="tf"
... )

>>> logits = model(**inputs).logits
>>> predicted_token_class_ids = tf.math.argmax(logits, axis=-1)

>>> # Note that tokens are classified rather then input words which means that
>>> # there might be more predicted token classes than words.
>>> # Multiple token classes might account for the same word
>>> predicted_tokens_classes = [model.config.id2label[t] for t in predicted_token_class_ids[0].numpy().tolist()]
>>> labels = predicted_token_class_ids
>>> loss = tf.math.reduce_mean(model(**inputs, labels=labels).loss)

TFXLNetForQuestionAnsweringSimple

class transformers.TFXLNetForQuestionAnsweringSimple

< >

( config *inputs **kwargs )

Parameters

  • config (XLNetConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

XLNet 模型,顶部带有一个跨度分类头,用于抽取式问答任务,如 SQuAD(隐藏状态输出顶部的线性层,用于计算 span start logitsspan end logits)。

此模型继承自 TFPreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并查阅 TF 2.0 文档以获取与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或者
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用诸如 model.fit() 之类的方法时,对于您来说,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入张量

  • 仅包含 input_ids 且不包含其他内容的单个张量:model(input_ids)
  • 包含一个或多个输入张量的可变长度列表,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中一个或多个输入张量与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None attention_mask: np.ndarray | tf.Tensor | None = None mems: np.ndarray | tf.Tensor | None = None perm_mask: np.ndarray | tf.Tensor | None = None target_mapping: np.ndarray | tf.Tensor | None = None token_type_ids: np.ndarray | tf.Tensor | None = None input_mask: np.ndarray | tf.Tensor | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None use_mems: Optional[bool] = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None start_positions: np.ndarray | tf.Tensor | None = None end_positions: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput or tuple(tf.Tensor)

Parameters

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。详情请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input IDs?

  • attention_mask (torch.FloatTensor of shape (batch_size, sequence_length), optional) — 用于避免在 padding token 索引上执行 attention 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 代表 tokens 未被 Mask
    • 0 代表 tokens 已被 Mask

    什么是 attention masks?

  • mems (List[torch.FloatTensor] of length config.n_layers) — 包含预先计算的 hidden-states(请参阅下面的 mems 输出)。可用于加速 sequential decoding。已经传递给此模型的 token ids 不应作为 input_ids 传递,因为它们已被计算。

    必须将 use_mems 设置为 True 才能使用 mems

  • perm_mask (torch.FloatTensor of shape (batch_size, sequence_length, sequence_length), optional) — 用于指示每个输入 token 的 attention 模式的 Mask,值在 [0, 1] 中选择:

    • 如果 perm_mask[k, i, j] = 0,则批次 k 中的 i attend to j;
    • 如果 perm_mask[k, i, j] = 1,则批次 k 中的 i 不 attend to j。

    如果未设置,则每个 token attend to 所有其他 tokens(完全双向 attention)。仅在预训练期间(用于定义分解顺序)或 sequential decoding(生成)时使用。

  • target_mapping (torch.FloatTensor of shape (batch_size, num_predict, sequence_length), optional) — 用于指示要使用的输出 tokens 的 Mask。如果 target_mapping[k, i, j] = 1,则批次 k 中的第 i 个预测位于第 j 个 token 上。仅在预训练期间用于 partial prediction 或 sequential decoding(生成)时使用。
  • token_type_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 段 token 索引,用于指示输入的第一个和第二个部分。索引在 [0, 1] 中选择:

    • 0 对应于 *句子 A* token,
    • 1 对应于 *句子 B* token。

    什么是 token type IDs?

  • input_mask (torch.FloatTensor of shape batch_size, sequence_length, optional) — 用于避免在 padding token 索引上执行 attention 的 Mask。attention_mask 的负数,即 0 代表真实 tokens,1 代表 padding,保留它是为了与原始代码库兼容。

    Mask 值在 [0, 1] 中选择:

    • 1 代表 tokens 已被 Mask
    • 0 代表 tokens 未被 Mask

    您只能使用 input_maskattention_mask 中的一个。

  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 用于 nullify self-attention 模块中选定的 heads 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 已被 Mask
  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递 embedded representation,而不是传递 input_ids。如果您想比模型的内部 embedding lookup matrix 更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有 attention layers 的 attentions tensors。有关更多详细信息,请参阅返回 tensors 下的 attentions
  • output_hidden_states (bool, optional) — 是否返回所有 layers 的 hidden states。有关更多详细信息,请参阅返回 tensors 下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是 plain tuple。
  • start_positions (tf.Tensor of shape (batch_size,), optional) — 用于计算 token classification loss 的带标签 span 起始位置(索引)的标签。位置被 clamp 到序列的长度 (sequence_length)。序列之外的位置不计入 loss 计算。
  • end_positions (tf.Tensor of shape (batch_size,), optional) — 用于计算 token classification loss 的带标签 span 结束位置(索引)的标签。位置被 clamp 到序列的长度 (sequence_length)。序列之外的位置不计入 loss 计算。

返回值

transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput or tuple(tf.Tensor)

一个 transformers.models.xlnet.modeling_tf_xlnet.TFXLNetForQuestionAnsweringSimpleOutput 或一个 tf.Tensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含各种元素,具体取决于配置 (XLNetConfig) 和输入。

  • loss (tf.Tensor of shape (1,), optional, returned when labels is provided) — 总 span extraction loss 是 start 和 end positions 的 Cross-Entropy 之和。

  • start_logits (tf.Tensor of shape (batch_size, sequence_length,)) — Span-start 分数(SoftMax 之前)。

  • end_logits (tf.Tensor of shape (batch_size, sequence_length,)) — Span-end 分数(SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态。可用于(参见 mems 输入)加速顺序解码。已将其过去状态提供给此模型的标记 ID 不应作为 input_ids 传递,因为它们已被计算。

  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(嵌入输出一个,每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

TFXLNetForQuestionAnsweringSimple 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数中定义,但应在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFXLNetForQuestionAnsweringSimple
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("xlnet/xlnet-base-cased")
>>> model = TFXLNetForQuestionAnsweringSimple.from_pretrained("xlnet/xlnet-base-cased")

>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"

>>> inputs = tokenizer(question, text, return_tensors="tf")
>>> outputs = model(**inputs)

>>> answer_start_index = int(tf.math.argmax(outputs.start_logits, axis=-1)[0])
>>> answer_end_index = int(tf.math.argmax(outputs.end_logits, axis=-1)[0])

>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> # target is "nice puppet"
>>> target_start_index = tf.constant([14])
>>> target_end_index = tf.constant([15])

>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = tf.math.reduce_mean(outputs.loss)
< > Update on GitHub