Transformers 文档

Transformer XL

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始

Transformer XL

此模型仅处于维护模式,因此我们不会接受任何更改其代码的新 PR。此模型因与 pickle.load 相关的安全问题而被弃用。

我们建议切换到更新的模型以提高安全性。

如果您仍然希望在实验中使用 TransfoXL,我们建议您使用 Hub 检查点,并指定一个特定的版本以确保您从 Hub 下载安全文件。

您需要将环境变量 TRUST_REMOTE_CODE 设置为 True 以允许使用 pickle.load()

import os
from transformers import TransfoXLTokenizer, TransfoXLLMHeadModel

os.environ["TRUST_REMOTE_CODE"] = "True"

checkpoint = 'transfo-xl/transfo-xl-wt103'
revision = '40a186da79458c9f9de846edfaea79c412137f97'

tokenizer = TransfoXLTokenizer.from_pretrained(checkpoint, revision=revision)
model = TransfoXLLMHeadModel.from_pretrained(checkpoint, revision=revision)

如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.35.0。您可以通过运行以下命令来执行此操作:pip install -U transformers==4.35.0

Models Spaces

概述

Transformer-XL 模型由 Zihang Dai、Zhilin Yang、Yiming Yang、Jaime Carbonell、Quoc V. Le、Ruslan Salakhutdinov 在 Transformer-XL:超越固定长度上下文的注意力语言模型 中提出。它是一个因果(单向)transformer,具有相对位置(正弦)嵌入,可以重用之前计算的隐藏状态以关注更长的上下文(内存)。此模型还使用自适应softmax 输入和输出(绑定)。

论文摘要如下

Transformers 有可能学习更长期的依赖关系,但在语言建模环境中受到固定长度上下文的限制。我们提出了一种新颖的神经架构 Transformer-XL,它能够在不破坏时间连贯性的情况下学习超越固定长度的依赖关系。它由一个段级循环机制和一个新颖的位置编码方案组成。我们的方法不仅能够捕获更长期的依赖关系,而且解决了上下文碎片化问题。因此,Transformer-XL 学习到的依赖关系比 RNN 长 80%,比 vanilla Transformers 长 450%,在短序列和长序列上都取得了更好的性能,并且在评估过程中比 vanilla Transformers 快 1,800 倍以上。值得注意的是,我们在 enwiki8 上将 bpc/困惑度提高到 0.99 的最佳水平,在 text8 上提高到 1.08,在 WikiText-103 上提高到 18.3,在 One Billion Word 上提高到 21.8,在 Penn Treebank 上提高到 54.5(无需微调)。当仅在 WikiText-103 上训练时,Transformer-XL 能够生成合理连贯、新颖的文本文章,这些文章包含数千个标记。

此模型由 thomwolf 贡献。原始代码可以在 这里 找到。

使用技巧

  • Transformer-XL 使用相对正弦位置嵌入。填充可以在左侧或右侧完成。原始实现是在 SQuAD 上训练的,填充在左侧,因此填充默认设置为左侧。
  • Transformer-XL 是少数几个没有序列长度限制的模型之一。
  • 与普通的 GPT 模型相同,但引入了两个连续段的循环机制(类似于具有两个连续输入的普通 RNN)。在此上下文中,一个段是连续标记的数字(例如 512),它可能跨越多个文档,并且按顺序将段馈送到模型。
  • 基本上,将前一段的隐藏状态连接到当前输入以计算注意力分数。这允许模型同时关注前一段和当前一段的信息。通过堆叠多个注意力层,可以将感受野扩展到多个前一段。
  • 这将位置嵌入更改为相对位置嵌入(因为常规位置嵌入会在当前输入和当前隐藏状态在给定位置产生相同的结果),并且需要对注意力分数的计算方式进行一些调整。

TransformerXL 适用于 torch.nn.DataParallel,因为 PyTorch 中存在一个错误,请参阅 问题 #36035

资源

TransfoXLConfig

class transformers.TransfoXLConfig

< >

( vocab_size = 267735 cutoffs = [20000, 40000, 200000] d_model = 1024 d_embed = 1024 n_head = 16 d_head = 64 d_inner = 4096 div_val = 4 pre_lnorm = False n_layer = 18 mem_len = 1600 clamp_len = 1000 same_length = True proj_share_all_but_first = True attn_type = 0 sample_softmax = -1 adaptive = True dropout = 0.1 dropatt = 0.0 untie_r = True init = 'normal' init_range = 0.01 proj_init_std = 0.01 init_std = 0.02 layer_norm_epsilon = 1e-05 eos_token_id = 0 **kwargs )

参数

  • vocab_size (int, 可选, 默认值 267735) — BERT 模型的词汇量大小。定义了调用 TransfoXLModelTFTransfoXLModel 时可由 inputs_ids 表示的不同标记数量。
  • cutoffs (List[int], 可选, 默认值 [20000, 40000, 200000]) — 自适应 softmax 的截止值。
  • d_model (int, 可选, 默认值 1024) — 模型隐藏状态的维度。
  • d_embed (int, 可选, 默认值 1024) — 嵌入的维度
  • n_head (int, 可选, 默认值 16) — Transformer 编码器中每个注意力层的注意力头的数量。
  • d_head (int, 可选, 默认值 64) — 模型头的维度。
  • d_inner (int, 可选, 默认值 4096) — FF 中的内部维度
  • div_val (int, 可选, 默认值 4) — 自适应输入和 softmax 的除数
  • pre_lnorm (布尔型, 可选, 默认值为 False) — 是否在块中将 LayerNorm 应用于输入而不是输出。
  • n_layer (整数, 可选, 默认值为 18) — Transformer 编码器中的隐藏层数。
  • mem_len (整数, 可选, 默认值为 1600) — 保留的先前头的长度。
  • clamp_len (整数, 可选, 默认值为 1000) — 在 clamp_len 后使用相同的 pos 嵌入。
  • same_length (布尔型, 可选, 默认值为 True) — 是否对所有标记使用相同的 attn 长度。
  • proj_share_all_but_first (布尔型, 可选, 默认值为 True) — True 表示共享除第一个之外的所有 projs,False 表示不共享。
  • attn_type (整数, 可选, 默认值为 0) — 注意力类型。0 表示 Transformer-XL,1 表示 Shaw 等人,2 表示 Vaswani 等人,3 表示 Al Rfou 等人。
  • sample_softmax (整数, 可选, 默认值为 -1) — 采样 softmax 中的样本数。
  • adaptive (布尔型, 可选, 默认值为 True) — 是否使用自适应 softmax。
  • dropout (浮点型, 可选, 默认值为 0.1) — 嵌入、编码器和池化器中所有全连接层的 dropout 概率。
  • untie_r (boolean, 可选, 默认为 True) — 是否解开相对位置偏差。
  • init (str, 可选, 默认为 "normal") — 要使用的参数初始化器。
  • init_range (float, 可选, 默认为 0.01) — 由 U(-init_range, init_range) 初始化的参数。
  • proj_init_std (float, 可选, 默认为 0.01) — 由 N(0, init_std) 初始化的参数
  • init_std (float, 可选, 默认为 0.02) — 由 N(0, init_std) 初始化的参数
  • layer_norm_epsilon (float, 可选, 默认为 1e-05) — 层归一化层中使用的 epsilon
  • eos_token_id (int, 可选, 默认为 0) — 流结束标记 ID。

这是一个配置类,用于存储 TransfoXLModelTFTransfoXLModel 的配置。它用于根据指定的参数实例化一个 Transformer-XL 模型,定义模型架构。使用默认值实例化一个配置将生成与 TransfoXL transfo-xl/transfo-xl-wt103 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 文档以获取更多信息。

示例

>>> from transformers import TransfoXLConfig, TransfoXLModel

>>> # Initializing a Transformer XL configuration
>>> configuration = TransfoXLConfig()

>>> # Initializing a model (with random weights) from the configuration
>>> model = TransfoXLModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

TransfoXLTokenizer

class transformers.TransfoXLTokenizer

< >

( special = None min_freq = 0 max_size = None lower_case = False delimiter = None vocab_file = None pretrained_vocab_file: str = None never_split = None unk_token = '<unk>' eos_token = '<eos>' additional_special_tokens = ['<formula>'] language = 'en' **kwargs )

参数

  • 特殊 (List[str], 可选) — 特殊标记列表(由该标记器的原始实现处理)。
  • 最小频率 (int, 可选,默认值为 0) — 标记在词汇表中出现的最小次数,才能保留在词汇表中(否则将映射到 unk_token)。
  • 最大大小 (int, 可选) — 词汇表的最大大小。如果未设置,它将默认为根据 min_freq 规则排除标记后找到的词汇表大小。
  • 小写 (bool, 可选,默认值为 False) — 是否在标记化时将输入转换为小写。
  • 分隔符 (str, 可选) — 标记之间使用的分隔符。
  • 词汇表文件 (str, 可选) — 包含词汇表的文件(来自原始实现)。
  • 预训练词汇表文件 (str, 可选) — 包含使用 save_pretrained() 方法保存的词汇表的文件。
  • 从不分割 (List[str], 可选) — 不应分割的标记列表。如果没有指定列表,将简单地使用现有的特殊标记。
  • 未知标记 (str, 可选,默认值为 "<unk>") — 未知标记。不在词汇表中的标记无法转换为 ID,而是设置为此标记。
  • 序列结束标记 (str, 可选,默认值为 "<eos>") — 序列结束标记。
  • language (str, 可选, 默认值为 "en") — 此分词器的语言(用于大多数预处理)。

原始代码 中的 Vocab 类改编而来的 Transformer-XL 分词器。Transformer-XL 分词器是词级分词器(没有子词分词)。

此分词器继承自 PreTrainedTokenizer,其中包含大部分主要方法。用户应参考此超类以获取有关这些方法的更多信息。

save_vocabulary

< >

( save_directory: str filename_prefix: Optional = None )

TransfoXL 特定输出

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput

< >

( last_hidden_state: FloatTensor mems: List = None hidden_states: Optional = None attentions: Optional = None )

参数

  • last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出的隐藏状态序列。
  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可用于(参见 mems 输入)加速顺序解码。将过去传递给此模型的标记 ID 不应作为输入 ID 传递,因为它们已经计算过了。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor 元组 (一个用于嵌入输出 + 一个用于每一层的输出)。

    模型在每一层输出的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor 元组 (每一层一个)。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去键/值(以加快顺序解码)。

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutput

<

参数

  • losses (torch.FloatTensor 形状为 (batch_size, sequence_length-1), 可选, 当提供 labels 时返回) — 语言建模损失 (未减少).
  • prediction_scores (torch.FloatTensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数 (SoftMax 之后每个词表标记的分数).
  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含预计算的隐藏状态 (注意力块中的键和值). 可用于 (见 mems 输入) 加速顺序解码. 应该将具有已计算的过去令牌 ID 的令牌 ID 不作为输入 ID 传递.
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组 (一个用于嵌入的输出 + 一个用于每个层的输出) 形状为 (batch_size, sequence_length, hidden_size).

    模型在每个层的输出处的隐藏状态加上初始嵌入输出.

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 元组 (每个层一个) 形状为 (batch_size, num_heads, sequence_length, sequence_length).

    注意力 Softmax 之后的注意力权重, 用于计算自注意力头中的加权平均值.

  • loss (torch.FloatTensor 形状为 (), 可选, 当提供 labels 时返回) — 减少的语言建模损失.

模型输出的基类,也可能包含过去键/值(以加快顺序解码)。

class transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutput

< >

( last_hidden_state: tf.Tensor = None mems: List[tf.Tensor] = None hidden_states: Tuple[tf.Tensor] | None = None attentions: Tuple[tf.Tensor] | None = None )

参数

  • last_hidden_state (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出处的隐藏状态序列.
  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)来加速顺序解码。 将其过去传递给该模型的令牌 ID 不应作为输入 ID 传递,因为它们已经计算过了。
  • hidden_states (tuple(tf.Tensor), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    每一层模型输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去键/值(以加快顺序解码)。

class transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutput

< >

( prediction_scores: tf.Tensor = None mems: List[tf.Tensor] = None hidden_states: Tuple[tf.Tensor] | None = None attentions: Tuple[tf.Tensor] | None = None )

参数

  • losses (tf.Tensor 形状为 (batch_size, sequence_length-1), 可选,在提供 labels 时返回) — 语言建模损失(未归约)。
  • prediction_scores (tf.Tensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 后每个词汇表令牌的分数)。
  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)来加速顺序解码。 将其过去传递给该模型的令牌 ID 不应作为输入 ID 传递,因为它们已经计算过了。
  • hidden_states (tuple(tf.Tensor), 可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    每一层模型输出的隐藏状态加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去键/值(以加快顺序解码)。

Pytorch
隐藏 Pytorch 内容

TransfoXLModel

class transformers.TransfoXLModel

< >

( config )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型的所有参数。用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

输出原始隐藏状态的裸 Bert 模型转换器,没有任何特定头部。

该模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( input_ids: Optional = None mems: Optional = None head_mask: Optional = None inputs_embeds: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请查看 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • mems (List[torch.FloatTensor] of length config.n_layers) — 包含模型计算的预先计算的隐藏状态(注意块中的键和值)(见下面的 mems 输出)。可用于加速顺序解码。提供给该模型的 mems 的令牌 ID 不应作为 input_ids 传递,因为它们已经计算过。
  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 掩码以使自注意模块的选定头部失效。在 [0, 1] 中选择的掩码值:

    • 1 表示头部未被掩码
    • 0 表示头部被掩码
  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您想比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联的向量,这将很有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的hidden_states
  • return_dict (bool, 可选) — 是否返回一个 ModelOutput 而不是一个简单的元组。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutputtuple(torch.FloatTensor)

一个 transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含取决于配置(TransfoXLConfig)和输入的各种元素。

  • last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层的输出处的隐藏状态序列。

  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见mems 输入)加快顺序解码。已经计算过过去信息的令牌 ID 不应该作为输入 ID 传递,因为它们已经计算过了。

  • hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

TransfoXLModel 前向方法,覆盖 __call__ 特殊方法。

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TransfoXLModel
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state

TransfoXLLMHeadModel

class transformers.TransfoXLLMHeadModel

< >

( config )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

带语言建模头的 Transformer-XL 模型(自适应 softmax,其权重与自适应输入嵌入绑定)

该模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( input_ids: Optional = None mems: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 输入序列标记在词典中的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含模型计算的预计算隐藏状态(注意块中的键和值)(参见下面的 mems 输出)。可用于加速顺序解码。 传递给此模型的 mem 对应的令牌 ID 不应该作为 input_ids 传递,因为它们已经计算过了。
  • head_mask (torch.FloatTensor 形状为 (num_heads,)(num_layers, num_heads)可选) — 用于使自注意力模块的选定头部无效的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示头部没有被掩码
    • 0 表示头部被掩码
  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对如何将 input_ids 索引转换为相关向量进行更多控制,而不是模型的内部嵌入查找矩阵,这将非常有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参见返回张量中的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参见返回张量中的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (torch.LongTensor 形状为 (batch_size, sequence_length)可选) — 用于语言建模的标签。请注意,标签在模型内部被移位,即您可以设置 labels = input_ids。索引选择在 [-100, 0, ..., config.vocab_size] 中。所有设置为 -100 的标签都被忽略(掩码),损失仅针对 [0, ..., config.vocab_size] 中的标签计算。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutputtuple(torch.FloatTensor)

一个 transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutput 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=False 或者当 config.return_dict=False 时),包含取决于配置 (TransfoXLConfig) 和输入的不同元素。

  • losses (torch.FloatTensor 形状为 (batch_size, sequence_length-1)可选,在提供 labels 时返回) — 语言建模损失(未归约)。

  • prediction_scores (torch.FloatTensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 后的每个词典标记的分数)。

  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见mems 输入)加快顺序解码。已经计算过过去信息的令牌 ID 不应该作为输入 ID 传递,因为它们已经计算过了。

  • hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

  • loss (torch.FloatTensor 形状为 ()可选,在提供 labels 时返回) — 归约的语言建模损失。

The TransfoXLLMHeadModel 正向方法,覆盖了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLLMHeadModel

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLLMHeadModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs, labels=inputs["input_ids"])
>>> loss = outputs.loss
>>> logits = outputs.logits

TransfoXLForSequenceClassification

class transformers.TransfoXLForSequenceClassification

< >

( config )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

Transformer-XL 模型,在顶部有一个用于序列分类的头部(线性层)。

TransfoXLForSequenceClassification 使用最后一个词元进行分类,类似于其他因果模型(例如 GPT-1)。

由于它对最后一个词元进行分类,因此需要知道最后一个词元的位置。如果在配置中定义了 pad_token_id,它会找到每一行中不是填充词元的最后一个词元。如果没有定义 pad_token_id,它会简单地获取批处理中每一行的最后一个值。由于在传递 inputs_embeds 而不是 input_ids 时无法猜测填充词元,因此它执行相同的操作(获取批处理中每一行的最后一个值)。

该模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( input_ids: Optional = None mems: Optional = None head_mask: Optional = None inputs_embeds: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPasttuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 输入序列词元的词汇索引。

    可以使用 AutoTokenizer 获取索引。查看 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 获取详细信息。

    什么是输入 ID?

  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含模型计算的预计算隐藏状态(注意力块中的键和值)(见下文 mems 输出)。可用于加速顺序解码。已为其提供 mems 的词元 ID 不应作为 input_ids 传递,因为它们已计算完毕。
  • head_mask (torch.FloatTensor 形状为 (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块中选定头的无效化掩码。在 [0, 1] 中选择掩码值:

    • 1 表示头 未掩码
    • 0 表示头 掩码
  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望对如何将 input_ids 索引转换为关联向量进行更多控制,这将非常有用,而不是模型的内部嵌入查找矩阵。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。查看返回张量中的 attentions 获取更多详细信息。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (torch.LongTensor 形状为 (batch_size,)可选) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 中。如果 config.num_labels == 1,则计算回归损失(均方损失),如果 config.num_labels > 1,则计算分类损失(交叉熵)。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPasttuple(torch.FloatTensor)

一个 transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPast 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置(TransfoXLConfig)和输入而变化的各种元素。

  • loss (torch.FloatTensor 形状为 (1,)可选,在提供 labels 时返回) — 分类(或如果 config.num_labels==1 则为回归)损失。

  • logits (torch.FloatTensor 形状为 (batch_size, config.num_labels)) — 分类(或如果 config.num_labels==1 则为回归)分数(在 SoftMax 之前)。

  • mems (List[torch.FloatTensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见mems 输入)加快顺序解码。已经计算过过去信息的令牌 ID 不应该作为输入 ID 传递,因为它们已经计算过了。

  • hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

The TransfoXLForSequenceClassification forward method, overrides the __call__ special method.

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

Example of single-label classification

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_id = logits.argmax().item()

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", num_labels=num_labels)

>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss

Example of multi-label classification

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", problem_type="multi_label_classification")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TransfoXLForSequenceClassification.from_pretrained(
...     "transfo-xl/transfo-xl-wt103", num_labels=num_labels, problem_type="multi_label_classification"
... )

>>> labels = torch.sum(
...     torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).loss
TensorFlow
Hide TensorFlow content

TFTransfoXLModel

class transformers.TFTransfoXLModel

< >

( config *inputs **kwargs )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。查看 from_pretrained() 方法加载模型权重。

输出原始隐藏状态的裸 Bert 模型转换器,没有任何特定头部。

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、裁剪头部等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以了解与一般使用和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用像 model.fit() 这样的方法时,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签!但是,如果您想在像 fit()predict() 这样的 Keras 方法之外使用第二种格式,例如在使用 Keras Functional API 创建自己的层或模型时,您可以使用三种可能性来收集第一个位置参数中的所有输入张量

  • 一个包含仅 input_ids 且没有其他内容的单个张量:model(input_ids)
  • 一个长度可变的列表,其中包含一个或多个输入张量,按照文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个输入张量,与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,在使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None training: bool = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutputtuple(tf.Tensor)

参数

  • input_ids (tf.TensorNumpy array 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.call()PreTrainedTokenizer.encode()

    什么是输入 ID?

  • mems (长度为 config.n_layersList[tf.Tensor]) — 包含模型计算的预先计算的隐藏状态(注意力块中的键和值)(见下面的 mems 输出)。可用于加速顺序解码。其 mems 传递给该模型的标记 ID 不应作为 input_ids 传递,因为它们已计算完毕。
  • head_mask (tf.TensorNumpy array 形状为 (num_heads,)(num_layers, num_heads)可选) — 用于使自注意力模块的选定头部无效的掩码。在 [0, 1] 中选择的掩码值:

    • 1 表示头部未被掩码
    • 0 表示头部被掩码
  • inputs_embeds (tf.TensorNumpy array 形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入式表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联的向量,这将很有用。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量中的 attentions。此参数只能在急切模式下使用,在图形模式下将使用配置中的值。
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量中的 hidden_states。此参数只能在急切模式下使用,在图形模式下将使用配置中的值。
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。此参数可在急切模式下使用,在图形模式下,该值始终设置为 True。
  • training (bool可选,默认为 False) — 是否在训练模式下使用模型(某些模块,如 dropout 模块,在训练和评估之间具有不同的行为)。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutputtuple(tf.Tensor)

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutputtf.Tensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包括取决于配置 (TransfoXLConfig) 和输入的各种元素。

  • last_hidden_state (tf.Tensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出处的隐藏状态序列。

  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见 mems 输入)加速顺序解码。传递到该模型的过去信息中的 token id 应该不要作为输入 id 传递,因为它们已经计算过了。

  • hidden_states (tuple(tf.Tensor), 可选, 当 output_hidden_states=True 被传递或 config.output_hidden_states=True 时返回) — tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 当 output_attentions=True 被传递或 config.output_attentions=True 时返回) — tf.Tensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

TFTransfoXLModel 的 forward 方法覆盖了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)

>>> last_hidden_states = outputs.last_hidden_state

TFTransfoXLLMHeadModel

class transformers.TFTransfoXLLMHeadModel

< >

( config )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型的所有参数。用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

带语言建模头的 Transformer-XL 模型(自适应 softmax,其权重与自适应输入嵌入绑定)

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、裁剪头部等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以了解与一般使用和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用像 model.fit() 这样的方法时,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签!但是,如果您想在像 fit()predict() 这样的 Keras 方法之外使用第二种格式,例如在使用 Keras Functional API 创建自己的层或模型时,您可以使用三种可能性来收集第一个位置参数中的所有输入张量

  • 一个包含仅 input_ids 且没有其他内容的单个张量:model(input_ids)
  • 一个长度可变的列表,其中包含一个或多个输入张量,按照文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个输入张量,与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,在使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutput or tuple(tf.Tensor)

参数

  • input_ids (tf.TensorNumpy array 形状为 (batch_size, sequence_length)) — 输入序列 token 在词汇表中的索引。

    索引可以通过 AutoTokenizer 获取。查看 PreTrainedTokenizer.call()PreTrainedTokenizer.encode() 以获取详细信息。

    什么是输入 ID?

  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含模型计算的预先计算的隐藏状态(注意力块中的键和值)(参见下面的 mems 输出)。可以用来加速顺序解码。传递到该模型的 mems 的 token id 应该不要作为 input_ids 传递,因为它们已经计算过了。
  • head_mask (tf.TensorNumpy array 形状为 (num_heads,)(num_layers, num_heads), 可选) — 掩码用于使自注意力模块中选定的头无效。掩码值选择在 [0, 1] 中:

    • 1 表示头没有被掩码
    • 0 表示头被掩码
  • inputs_embeds (tf.TensorNumpy array 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递 input_ids。如果你想对如何将 input_ids 索引转换为关联的向量有更多控制权,这将非常有用,而不是使用模型内部的嵌入查找矩阵。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量中的 attentions。此参数只能在急切模式下使用,在图模式下,将使用配置中的值。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states。此参数只能在急切模式下使用,在图模式下,将使用配置中的值。
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。此参数可在急切模式下使用,在图模式下,该值始终设置为 True。
  • training (bool, 可选,默认值 False) — 是否以训练模式使用模型(某些模块,如 dropout 模块,在训练和评估之间具有不同的行为)。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutputtuple(tf.Tensor)

一个 transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutput 或者一个 tf.Tensor 元组(如果传递 return_dict=Falseconfig.return_dict=False),包含取决于配置 (TransfoXLConfig) 和输入的各种元素。

  • losses (tf.Tensor 形状为 (batch_size, sequence_length-1)可选,在提供 labels 时返回) — 语言建模损失(未减少)。

  • prediction_scores (tf.Tensor 形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测得分(SoftMax 之后每个词汇标记的得分)。

  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见 mems 输入)加速顺序解码。传递到该模型的过去信息中的 token id 应该不要作为输入 id 传递,因为它们已经计算过了。

  • hidden_states (tuple(tf.Tensor), 可选, 当 output_hidden_states=True 被传递或 config.output_hidden_states=True 时返回) — tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 当 output_attentions=True 被传递或 config.output_attentions=True 时返回) — tf.Tensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

The TFTransfoXLLMHeadModel 正向方法,覆盖了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLLMHeadModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLLMHeadModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)
>>> logits = outputs.logits

TFTransfoXLForSequenceClassification

class transformers.TFTransfoXLForSequenceClassification

< >

( config *inputs **kwargs )

参数

  • config (TransfoXLConfig) — 模型配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

带有序列分类头的 Transfo XL 模型转换器(线性层)。

TFTransfoXLForSequenceClassification 使用最后一个标记来进行分类,就像其他因果模型(例如 GPT-1、GPT-2)一样。

由于它对最后一个词元进行分类,因此需要知道最后一个词元的位置。如果在配置中定义了 pad_token_id,它会找到每一行中不是填充词元的最后一个词元。如果没有定义 pad_token_id,它会简单地获取批处理中每一行的最后一个值。由于在传递 inputs_embeds 而不是 input_ids 时无法猜测填充词元,因此它执行相同的操作(获取批处理中每一行的最后一个值)。

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、裁剪头部等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参考 TF 2.0 文档以了解与一般使用和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种格式作为输入

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为第一个位置参数中的列表、元组或字典。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用像 model.fit() 这样的方法时,事情应该“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签!但是,如果您想在像 fit()predict() 这样的 Keras 方法之外使用第二种格式,例如在使用 Keras Functional API 创建自己的层或模型时,您可以使用三种可能性来收集第一个位置参数中的所有输入张量

  • 一个包含仅 input_ids 且没有其他内容的单个张量:model(input_ids)
  • 一个长度可变的列表,其中包含一个或多个输入张量,按照文档字符串中给出的顺序:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 一个字典,其中包含一个或多个输入张量,与文档字符串中给出的输入名称相关联:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,在使用 子类化 创建模型和层时,您无需担心这些,因为您可以像传递给任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: Optional[bool] = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPasttuple(tf.Tensor)

参数

  • input_ids (tf.TensorNumpy array 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.call()PreTrainedTokenizer.encode()

    什么是输入 ID?

  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含由模型计算的预先计算的隐藏状态(注意力块中的键和值)(见下面的 mems 输出)。可用于加速顺序解码。传递给此模型的 mems 应该具有与其对应的 token id,不应该作为 input_ids 传递,因为它们已经计算过。
  • head_mask (tf.TensorNumpy array 形状为 (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块的选定头部失效的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示头部 未被掩码,
    • 0 表示头部 被掩码.
  • inputs_embeds (tf.TensorNumpy array 形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量中的 attentions。此参数仅在急切模式下可用,在图模式下,将使用配置中的值。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量中的 hidden_states。此参数仅在急切模式下可用,在图模式下,将使用配置中的值。
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。此参数可在急切模式下使用,在图模式下,该值将始终设置为 True。
  • training (bool, 可选,默认值为 False) — 是否以训练模式使用模型(某些模块,如 dropout 模块,在训练和评估之间有不同的行为)。
  • labels (tf.Tensor 形状为 (batch_size, sequence_length), 可选) — 用于计算交叉熵分类损失的标签。索引应在 [0, ..., config.vocab_size - 1] 中。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPasttuple(tf.Tensor)

一个 transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPast 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含根据配置 (TransfoXLConfig) 和输入的不同元素。

  • loss (tf.Tensor 形状为 (1,), 可选,当提供 labels 时返回) — 分类(或如果 config.num_labels==1 则为回归)损失。

  • logits (tf.Tensor 形状为 (batch_size, config.num_labels)) — 分类(或如果 config.num_labels==1 则为回归)得分(在 SoftMax 之前)。

  • mems (List[tf.Tensor] 长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。可以用来(参见 mems 输入)加速顺序解码。传递到该模型的过去信息中的 token id 应该不要作为输入 id 传递,因为它们已经计算过了。

  • hidden_states (tuple(tf.Tensor), 可选, 当 output_hidden_states=True 被传递或 config.output_hidden_states=True 时返回) — tf.Tensor 元组(一个用于嵌入的输出 + 一个用于每一层的输出)形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层的输出处的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor), 可选, 当 output_attentions=True 被传递或 config.output_attentions=True 时返回) — tf.Tensor 元组(每一层一个)形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均。

The TFTransfoXLForSequenceClassification forward 方法覆盖了 __call__ 特殊方法。

虽然前向传递的配方需要在此函数内定义,但应该在之后调用 Module 实例而不是它,因为前者负责运行前处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLForSequenceClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")

>>> logits = model(**inputs).logits

>>> predicted_class_id = int(tf.math.argmax(logits, axis=-1)[0])
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TFTransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", num_labels=num_labels)

>>> labels = tf.constant(1)
>>> loss = model(**inputs, labels=labels).loss

内部层

class transformers.AdaptiveEmbedding

< >

( n_token d_embed d_proj cutoffs div_val = 1 sample_softmax = False )

class transformers.TFAdaptiveEmbedding

< >

( n_token d_embed d_proj cutoffs div_val = 1 init_std = 0.02 sample_softmax = False **kwargs )

< > 在 GitHub 上更新