Transformers 文档

Transformer XL

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Transformer XL

PyTorch TensorFlow

此模型仅处于维护模式,因此我们不会接受任何更改其代码的新 PR。此模型由于与 pickle.load 相关的安全问题而被弃用。

我们建议切换到更新的模型以提高安全性。

如果您仍然想在实验中使用 TransfoXL,我们建议使用带有特定修订版本的 Hub 检查点,以确保您从 Hub 下载安全的文件。

您需要将环境变量 TRUST_REMOTE_CODE 设置为 True,以允许使用 pickle.load()

import os
from transformers import TransfoXLTokenizer, TransfoXLLMHeadModel

os.environ["TRUST_REMOTE_CODE"] = "True"

checkpoint = 'transfo-xl/transfo-xl-wt103'
revision = '40a186da79458c9f9de846edfaea79c412137f97'

tokenizer = TransfoXLTokenizer.from_pretrained(checkpoint, revision=revision)
model = TransfoXLLMHeadModel.from_pretrained(checkpoint, revision=revision)

如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.35.0。您可以通过运行以下命令来执行此操作:pip install -U transformers==4.35.0

Models Spaces

概览

Transformer-XL 模型由 Zihang Dai、Zhilin Yang、Yiming Yang、Jaime Carbonell、Quoc V. Le、Ruslan Salakhutdinov 在Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context 中提出。它是一种因果(单向)transformer,具有相对位置(正弦)嵌入,可以重用先前计算的隐藏状态来关注更长的上下文(记忆)。此模型还使用自适应 softmax 输入和输出(绑定)。

该论文的摘要如下

Transformer 具有学习长期依赖性的潜力,但在语言建模的设置中受到固定长度上下文的限制。我们提出了一种新颖的神经架构 Transformer-XL,它能够在不破坏时间连贯性的情况下学习超出固定长度的依赖性。它由段级循环机制和新颖的位置编码方案组成。我们的方法不仅能够捕获长期依赖性,而且还解决了上下文碎片化问题。因此,Transformer-XL 学习到的依赖性比 RNN 长 80%,比 vanilla Transformer 长 450%,在短序列和长序列上都取得了更好的性能,并且在评估期间比 vanilla Transformer 快 1,800 多倍。值得注意的是,我们将 enwiki8 上的 bpc/perplexity 的最先进结果提高到 0.99,text8 上的 1.08,WikiText-103 上的 18.3,One Billion Word 上的 21.8,以及 Penn Treebank 上的 54.5(无需微调)。当仅在 WikiText-103 上训练时,Transformer-XL 能够生成包含数千个 tokens 的相当连贯的新文本文章。

此模型由 thomwolf 贡献。原始代码可以在这里找到。

使用技巧

  • Transformer-XL 使用相对正弦位置嵌入。填充可以放在左侧或右侧。原始实现使用左侧填充在 SQuAD 上进行训练,因此填充默认设置为左侧。
  • Transformer-XL 是少数几个没有序列长度限制的模型之一。
  • 与常规 GPT 模型相同,但为两个连续的段引入了循环机制(类似于具有两个连续输入的常规 RNN)。在这种情况下,一个段是若干个连续的 token(例如 512 个),这些 token 可能跨越多个文档,并且段按顺序馈送到模型。
  • 基本上,前一个段的隐藏状态被连接到当前输入,以计算注意力分数。这允许模型关注前一个段以及当前段中的信息。通过堆叠多个注意力层,感受野可以扩展到多个先前的段。
  • 这会将位置嵌入更改为位置相对嵌入(因为常规位置嵌入会在当前输入和给定位置的当前隐藏状态中给出相同的结果),并且需要在计算注意力分数的方式上进行一些调整。

由于 PyTorch 中的一个错误,TransformerXL 适用于 torch.nn.DataParallel,请参阅 issue #36035

资源

TransfoXLConfig

class transformers.TransfoXLConfig

< >

( vocab_size = 267735 cutoffs = [20000, 40000, 200000] d_model = 1024 d_embed = 1024 n_head = 16 d_head = 64 d_inner = 4096 div_val = 4 pre_lnorm = False n_layer = 18 mem_len = 1600 clamp_len = 1000 same_length = True proj_share_all_but_first = True attn_type = 0 sample_softmax = -1 adaptive = True dropout = 0.1 dropatt = 0.0 untie_r = True init = 'normal' init_range = 0.01 proj_init_std = 0.01 init_std = 0.02 layer_norm_epsilon = 1e-05 eos_token_id = 0 **kwargs )

参数

  • vocab_size (int, 可选, 默认为 267735) — BERT 模型的词汇表大小。定义了调用 TransfoXLModelTFTransfoXLModel 时传递的 inputs_ids 可以表示的不同 token 的数量。
  • cutoffs (List[int], 可选, 默认为 [20000, 40000, 200000]) — 自适应 softmax 的 cutoff 值。
  • d_model (int, 可选, 默认为 1024) — 模型隐藏状态的维度。
  • d_embed (int, 可选, 默认为 1024) — 嵌入的维度
  • n_head (int, 可选, 默认为 16) — Transformer 编码器中每个注意力层的注意力头数。
  • d_head (int, 可选, 默认为 64) — 模型头的维度。
  • d_inner (int, 可选, 默认为 4096) — FF 中的内部维度
  • div_val (int, 可选, 默认为 4) — 自适应输入和 softmax 的除数值
  • pre_lnorm (boolean, 可选, 默认为 False) — 是否将 LayerNorm 应用于块中的输入而不是输出。
  • n_layer (int, 可选, 默认为 18) — Transformer 编码器中隐藏层的数量。
  • mem_len (int, 可选, 默认为 1600) — 保留的先前头的长度。
  • clamp_len (int, 可选, 默认为 1000) — 在 clamp_len 之后使用相同的位置嵌入。
  • same_length (boolean, 可选, 默认为 True) — 是否对所有 token 使用相同的 attn 长度
  • proj_share_all_but_first (boolean, 可选, 默认为 True) — 如果为 True,则共享除第一个 proj 之外的所有 proj,如果为 False,则不共享。
  • attn_type (int, 可选, 默认为 0) — 注意力类型。0 代表 Transformer-XL,1 代表 Shaw 等人,2 代表 Vaswani 等人,3 代表 Al Rfou 等人。
  • sample_softmax (int, 可选, 默认为 -1) — 采样 softmax 中的样本数。
  • adaptive (boolean, 可选, 默认为 True) — 是否使用自适应 softmax。
  • dropout (float, 可选, 默认为 0.1) — 嵌入、编码器和 pooler 中所有全连接层的 dropout 概率。
  • dropatt (float, 可选, 默认为 0.0) — 注意力概率的 dropout 比率。
  • untie_r (boolean, 可选, 默认为 True) — 是否不对相对位置偏差进行 untie 操作。
  • init (str, 可选, 默认为 "normal") — 要使用的参数初始化器。
  • init_range (float, 可选, 默认为 0.01) — 参数通过 U(-init_range, init_range) 初始化。
  • proj_init_std (float, 可选, 默认为 0.01) — 参数通过 N(0, init_std) 初始化
  • init_std (float, 可选, 默认为 0.02) — 参数通过 N(0, init_std) 初始化
  • layer_norm_epsilon (float, 可选, 默认为 1e-05) — 层归一化层中使用的 epsilon 值
  • eos_token_id (int, 可选, 默认为 0) — 流结束符 token id。

这是用于存储 TransfoXLModelTFTransfoXLModel 配置的配置类。 它用于根据指定的参数实例化 Transformer-XL 模型,定义模型架构。 使用默认值实例化配置将产生与 TransfoXL transfo-xl/transfo-xl-wt103 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 有关更多信息,请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import TransfoXLConfig, TransfoXLModel

>>> # Initializing a Transformer XL configuration
>>> configuration = TransfoXLConfig()

>>> # Initializing a model (with random weights) from the configuration
>>> model = TransfoXLModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

TransfoXLTokenizer

class transformers.TransfoXLTokenizer

< >

( special = None min_freq = 0 max_size = None lower_case = False delimiter = None vocab_file = None pretrained_vocab_file: str = None never_split = None unk_token = '<unk>' eos_token = '<eos>' additional_special_tokens = ['<formula>'] language = 'en' **kwargs )

参数

  • special (List[str], 可选) — 特殊 token 列表(由此 tokenizer 的原始实现处理)。
  • min_freq (int, 可选, 默认为 0) — token 至少需要出现的次数,才能保留在词汇表中(否则它将被映射到 unk_token)。
  • max_size (int, 可选) — 词汇表的最大大小。 如果未设置,则默认为根据 min_freq 规则排除 token 后找到的词汇表的大小。
  • lower_case (bool, 可选, 默认为 False) — 分词时是否将输入转换为小写。
  • delimiter (str, 可选) — token 之间使用的分隔符。
  • vocab_file (str, 可选) — 包含词汇表的文件(来自原始实现)。
  • pretrained_vocab_file (str, 可选) — 包含使用 save_pretrained() 方法保存的词汇表的文件。
  • never_split (List[str], 可选) — 不应拆分的 token 列表。 如果未指定列表,则将仅使用现有的特殊 token。
  • unk_token (str, 可选, 默认为 "<unk>") — 未知 token。 词汇表中不存在的 token 无法转换为 ID,而是设置为此 token。
  • eos_token (str, 可选, 默认为 "<eos>") — 序列结束 token。
  • additional_special_tokens (List[str], 可选, 默认为 ['<formula>']) — 附加的特殊 token 列表(用于 HuggingFace 功能)。
  • language (str, 可选, 默认为 "en") — 此 tokenizer 的语言(用于 mose 预处理)。

构建一个 Transformer-XL tokenizer,它改编自 原始代码 中的 Vocab 类。 Transformer-XL tokenizer 是一个词级 tokenizer(没有子词 token 化)。

此 tokenizer 继承自 PreTrainedTokenizer,其中包含大多数主要方法。 用户应参考此超类以获取有关这些方法的更多信息。

save_vocabulary

< >

( save_directory: str filename_prefix: typing.Optional[str] = None )

TransfoXL 特定输出

class transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput

< >

( last_hidden_state: FloatTensor mems: typing.List[torch.FloatTensor] = None hidden_states: typing.Optional[typing.Tuple[torch.FloatTensor]] = None attentions: typing.Optional[typing.Tuple[torch.FloatTensor]] = None )

参数

  • last_hidden_state (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor) — 模型最后一层的输出处的隐藏状态序列。
  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)以加速顺序解码。 已将其过去状态提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算。
  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — 形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor 元组(每个嵌入输出对应一个,每层输出对应一个)。

    模型在每一层输出以及初始嵌入输出处的隐藏状态。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — 形状为 (batch_size, num_heads, sequence_length, sequence_length)torch.FloatTensor 元组(每层一个)。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去的键/值(以加速顺序解码)。

class transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutput

< >

( losses: typing.Optional[torch.FloatTensor] = None prediction_scores: FloatTensor = None mems: typing.List[torch.FloatTensor] = None hidden_states: typing.Optional[typing.Tuple[torch.FloatTensor]] = None attentions: typing.Optional[typing.Tuple[torch.FloatTensor]] = None loss: typing.Optional[torch.FloatTensor] = None )

参数

  • losses (torch.FloatTensor,形状为 (batch_size, sequence_length-1)可选,当提供 labels 时返回) — 语言建模损失(未缩减)。
  • prediction_scores (torch.FloatTensor,形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 后每个词汇标记的得分)。
  • mems (List[torch.FloatTensor],长度为 config.n_layers) — 包含预计算的隐藏状态(注意力模块中的键和值)。可以用于(参见 mems 输入)加速序列解码。已经为其提供过去信息的标记 ID 不应作为输入 ID 传递,因为它们已被计算过。
  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(每个嵌入输出 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的权重,用于计算自注意力头中的加权平均值。

  • loss (torch.FloatTensor,形状为 ()可选,当提供 labels 时返回) — 缩减的语言建模损失。

模型输出的基类,也可能包含过去的键/值(以加速顺序解码)。

class transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutput

< >

( last_hidden_state: tf.Tensor = None mems: List[tf.Tensor] = None hidden_states: Tuple[tf.Tensor] | None = None attentions: Tuple[tf.Tensor] | None = None )

参数

  • last_hidden_state (tf.Tensor,形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出端的隐藏状态序列。
  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预计算的隐藏状态(注意力模块中的键和值)。可以用于(参见 mems 输入)加速序列解码。已经为其提供过去信息的标记 ID 不应作为输入 ID 传递,因为它们已被计算过。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个嵌入输出 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去的键/值(以加速顺序解码)。

class transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutput

< >

( prediction_scores: tf.Tensor = None mems: List[tf.Tensor] = None hidden_states: Tuple[tf.Tensor] | None = None attentions: Tuple[tf.Tensor] | None = None )

参数

  • losses (tf.Tensor,形状为 (batch_size, sequence_length-1)可选,当提供 labels 时返回) — 语言建模损失(未缩减)。
  • prediction_scores (tf.Tensor,形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模头的预测分数(SoftMax 后每个词汇标记的得分)。
  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预计算的隐藏状态(注意力模块中的键和值)。可以用于(参见 mems 输入)加速序列解码。已经为其提供过去信息的标记 ID 不应作为输入 ID 传递,因为它们已被计算过。
  • hidden_states (tuple(tf.Tensor)可选,当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — tf.Tensor 的元组(每个嵌入输出 + 每层输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每层输出端的隐藏状态,加上初始嵌入输出。

  • attentions (tuple(tf.Tensor)可选,当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — tf.Tensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的权重,用于计算自注意力头中的加权平均值。

模型输出的基类,也可能包含过去的键/值(以加速顺序解码)。

Pytorch
Hide Pytorch content

TransfoXLModel

class transformers.TransfoXLModel

< >

( config )

参数

  • config (TransfoXLConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

输出原始隐藏状态的 Bert 模型 Transformer,没有特定的头部。

此模型继承自 PreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解与一般用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None mems: typing.Optional[typing.List[torch.FloatTensor]] = None head_mask: typing.Optional[torch.FloatTensor] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput or tuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 详情请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 IDs?

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含由模型计算的预计算隐藏状态(注意力块中的键和值)(参见下面的 mems 输出)。 可用于加速顺序解码。 已将其 mems 提供给此模型的 token IDs 不应作为 input_ids 传递,因为它们已被计算。
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor, 可选) — 用于置空自注意力模块中选定 head 的 Mask。 Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 被 Mask
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的 attentions 张量。 有关更多详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通 tuple。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutputtuple(torch.FloatTensor)

一个 transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLModelOutput 或一个 torch.FloatTensor tuple(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含取决于配置 (TransfoXLConfig) 和输入的各种元素。

  • last_hidden_state (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor) — 模型最后一层的输出端的隐藏状态序列。

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含预计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)以加速顺序解码。 已将其过去状态提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 tuple(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的 tuple(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

TransfoXLModel forward 方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TransfoXLModel
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state

TransfoXLLMHeadModel

class transformers.TransfoXLLMHeadModel

< >

( config )

参数

  • config (TransfoXLConfig) — 带有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。

带有语言建模 head 的 Transformer-XL 模型(自适应 softmax,其权重与自适应输入 embeddings 绑定)

此模型继承自 PreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解与一般用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None mems: typing.Optional[typing.List[torch.FloatTensor]] = None head_mask: typing.Optional[torch.FloatTensor] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutput or tuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。 详情请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 IDs?

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含由模型计算的预计算隐藏状态(注意力块中的键和值)(参见下面的 mems 输出)。 可用于加速顺序解码。 已将其 mems 提供给此模型的 token IDs 不应作为 input_ids 传递,因为它们已被计算。
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor, 可选) — 用于置空自注意力模块中选定 head 的 Mask。 Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 被 Mask
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的 attentions 张量。 有关更多详细信息,请参见返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参见返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通 tuple。
  • labels (形状为 (batch_size, sequence_length)torch.LongTensor, 可选) — 用于语言建模的标签。 请注意,标签在模型内部已移位,即您可以设置 labels = input_ids。 索引在 [-100, 0, ..., config.vocab_size] 中选择。 所有设置为 -100 的标签都将被忽略(masked),损失仅针对 [0, ..., config.vocab_size] 中的标签计算。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutputtuple(torch.FloatTensor)

一个 transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLLMHeadModelOutput 或一个 torch.FloatTensor tuple(如果传递了 return_dict=False 或当 config.return_dict=False 时),其中包含取决于配置 (TransfoXLConfig) 和输入的各种元素。

  • losses (形状为 (batch_size, sequence_length-1)torch.FloatTensor, 可选, 当提供 labels 时返回) — 语言建模损失(未缩减)。

  • prediction_scores (形状为 (batch_size, sequence_length, config.vocab_size)torch.FloatTensor) — 语言建模 head 的预测分数(SoftMax 之后每个词汇表 token 的分数)。

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含预计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)以加速顺序解码。 已将其过去状态提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 tuple(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的 tuple(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

  • loss (形状为 ()torch.FloatTensor, 可选, 当提供 labels 时返回) 缩减的语言建模损失。

TransfoXLLMHeadModel forward 方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLLMHeadModel

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLLMHeadModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> outputs = model(**inputs, labels=inputs["input_ids"])
>>> loss = outputs.loss
>>> logits = outputs.logits

TransfoXLForSequenceClassification

class transformers.TransfoXLForSequenceClassification

< >

( config )

参数

  • config (TransfoXLConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。

Transformer-XL 模型转换器,顶部带有一个序列分类头(线性层)。

TransfoXLForSequenceClassification 使用最后一个 token 来进行分类,就像其他因果模型(例如 GPT-1)一样。

由于它对最后一个 token 进行分类,因此需要知道最后一个 token 的位置。如果在配置中定义了 pad_token_id,它会在每行中找到最后一个不是填充 token 的 token。如果未定义 pad_token_id,它只会获取批次中每行的最后一个值。由于当传递 inputs_embeds 而不是 input_ids 时,它无法猜测填充 token,因此它会执行相同的操作(获取批次中每行的最后一个值)。

此模型继承自 PreTrainedModel。查看超类文档以获取库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解与一般用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None mems: typing.Optional[typing.List[torch.FloatTensor]] = None head_mask: typing.Optional[torch.FloatTensor] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPast or tuple(torch.FloatTensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input IDs?

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含模型计算的预计算隐藏状态(注意力块中的键和值)(请参见下面的 mems 输出)。可用于加速顺序解码。已将其 mems 提供给此模型的 token ids 不应作为 input_ids 传递,因为它们已被计算过。
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)torch.FloatTensor, 可选) — 用于使 self-attention 模块的选定 head 失效的 Mask。在 [0, 1] 中选择的 Mask 值:

    • 1 表示 head 未被 Mask
    • 0 表示 head 被 Mask
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更好地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力 tensors。有关更多详细信息,请参阅返回的 tensors 下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回的 tensors 下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (形状为 (batch_size,)torch.LongTensor, 可选) — 用于计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 中。如果 config.num_labels == 1,则计算回归损失(均方误差损失);如果 config.num_labels > 1,则计算分类损失(交叉熵)。

返回值

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPasttuple(torch.FloatTensor)

transformers.models.deprecated.transfo_xl.modeling_transfo_xl.TransfoXLSequenceClassifierOutputWithPasttorch.FloatTensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (TransfoXLConfig) 和输入。

  • loss (形状为 (1,)torch.FloatTensor, 可选, 当提供 labels 时返回) — 分类(或回归,如果 config.num_labels==1)损失。

  • logits (形状为 (batch_size, config.num_labels)torch.FloatTensor) — 分类(或回归,如果 config.num_labels==1)得分(在 SoftMax 之前)。

  • mems (长度为 config.n_layersList[torch.FloatTensor]) — 包含预计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)以加速顺序解码。 已将其过去状态提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 tuple(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的 tuple(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

TransfoXLForSequenceClassification forward 方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

单标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_id = logits.argmax().item()

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", num_labels=num_labels)

>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss

多标签分类示例

>>> import torch
>>> from transformers import AutoTokenizer, TransfoXLForSequenceClassification

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", problem_type="multi_label_classification")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]

>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TransfoXLForSequenceClassification.from_pretrained(
...     "transfo-xl/transfo-xl-wt103", num_labels=num_labels, problem_type="multi_label_classification"
... )

>>> labels = torch.sum(
...     torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).loss
TensorFlow
隐藏 TensorFlow 内容

TFTransfoXLModel

class transformers.TFTransfoXLModel

< >

( config *inputs **kwargs )

参数

  • config (TransfoXLConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,仅加载配置。查看 from_pretrained() 方法来加载模型权重。

输出原始隐藏状态的 Bert 模型 Transformer,没有特定的头部。

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参阅 TF 2.0 文档,了解与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 model.fit() 等方法时,事情应该对您“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入 Tensors

  • 仅使用 input_ids 且不包含其他内容的单个 Tensor:model(input_ids)
  • 长度可变的列表,其中包含一个或多个输入 Tensors,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入 Tensors:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None training: bool = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutputtuple(tf.Tensor)

参数

  • input_ids (形状为 (batch_size, sequence_length)tf.TensorNumpy array) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.call()PreTrainedTokenizer.encode()

    什么是 input IDs?

  • mems (长度为 config.n_layersList[tf.Tensor]) — 包含模型计算的预计算隐藏状态(注意力块中的键和值)(请参见下面的 mems 输出)。可用于加速顺序解码。已将其 mems 提供给此模型的 token ids 不应作为 input_ids 传递,因为它们已被计算过。
  • head_mask (形状为 (num_heads,)(num_layers, num_heads)tf.TensorNumpy array, 可选) — 用于使 self-attention 模块的选定 head 失效的 Mask。在 [0, 1] 中选择的 Mask 值:

    • 1 表示 head 未被 Mask
    • 0 表示 head 被 Mask
  • inputs_embeds (形状为 (batch_size, sequence_length, hidden_size)tf.TensorNumpy array, 可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更好地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions。 此参数只能在 eager 模式下使用,在 graph 模式下将使用配置中的值。
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states。 此参数只能在 eager 模式下使用,在 graph 模式下将使用配置中的值。
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。 此参数可以在 eager 模式下使用,在 graph 模式下,该值将始终设置为 True。
  • training (bool, optional, defaults to False) — 是否在训练模式下使用模型(dropout 模块等某些模块在训练和评估之间具有不同的行为)。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutputtuple(tf.Tensor)

一个 transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLModelOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (TransfoXLConfig) 和输入。

  • last_hidden_state (tf.Tensor,形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层的输出处的隐藏状态序列。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)来加速顺序解码。 已将其过去信息提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算过。

  • hidden_states (tuple(tf.Tensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(tf.Tensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

TFTransfoXLModel 前向方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)

>>> last_hidden_states = outputs.last_hidden_state

TFTransfoXLLMHeadModel

class transformers.TFTransfoXLLMHeadModel

< >

( config )

参数

  • config (TransfoXLConfig) — 带有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。

带有语言建模 head 的 Transformer-XL 模型(自适应 softmax,其权重与自适应输入 embeddings 绑定)

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参阅 TF 2.0 文档,了解与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 model.fit() 等方法时,事情应该对您“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入 Tensors

  • 仅使用 input_ids 且不包含其他内容的单个 Tensor:model(input_ids)
  • 长度可变的列表,其中包含一个或多个输入 Tensors,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入 Tensors:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: bool | None = None output_hidden_states: bool | None = None return_dict: bool | None = None labels: np.ndarray | tf.Tensor | None = None training: bool = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutputtuple(tf.Tensor)

参数

  • input_ids (tf.Tensor 或形状为 (batch_size, sequence_length)Numpy array) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获得索引。 有关详细信息,请参阅 PreTrainedTokenizer.call()PreTrainedTokenizer.encode()

    什么是输入 IDs?

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含模型计算出的预先计算的隐藏状态(注意力块中的键和值)(请参阅下面的 mems 输出)。 可用于加速顺序解码。 已将其 mems 提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。
  • head_mask (tf.Tensor 或形状为 (num_heads,)(num_layers, num_heads)Numpy array, optional) — 用于使自注意力模块的选定 head 无效的 Mask。 在 [0, 1] 中选择的 Mask 值:

    • 1 表示 head 未被屏蔽
    • 0 表示 head 被屏蔽
  • inputs_embeds (tf.Tensor 或形状为 (batch_size, sequence_length, hidden_size)Numpy array, optional) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。 如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions。 此参数只能在 eager 模式下使用,在 graph 模式下将使用配置中的值。
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states。 此参数只能在 eager 模式下使用,在 graph 模式下将使用配置中的值。
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。 此参数可以在 eager 模式下使用,在 graph 模式下,该值将始终设置为 True。
  • training (bool, optional, defaults to False) — 是否在训练模式下使用模型(dropout 模块等某些模块在训练和评估之间具有不同的行为)。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutputtuple(tf.Tensor)

一个 transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLLMHeadModelOutput 或一个 tf.Tensor 元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (TransfoXLConfig) 和输入。

  • losses (tf.Tensor,形状为 (batch_size, sequence_length-1), optional, 当提供 labels 时返回) — 语言建模损失(未缩减)。

  • prediction_scores (tf.Tensor,形状为 (batch_size, sequence_length, config.vocab_size)) — 语言建模 head 的预测分数(SoftMax 后每个词汇表 token 的分数)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)来加速顺序解码。 已将其过去信息提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算过。

  • hidden_states (tuple(tf.Tensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(tf.Tensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

TFTransfoXLLMHeadModel 前向方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLLMHeadModel
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLLMHeadModel.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")
>>> outputs = model(inputs)
>>> logits = outputs.logits

TFTransfoXLForSequenceClassification

class transformers.TFTransfoXLForSequenceClassification

< >

( config *inputs **kwargs )

参数

  • config (TransfoXLConfig) — 带有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法以加载模型权重。

带有序列分类 head(线性层)的 Transfo XL 模型转换器。

TFTransfoXLForSequenceClassification 使用最后一个 token 来进行分类,就像其他因果模型(例如 GPT-1、GPT-2)一样。

由于它对最后一个 token 进行分类,因此需要知道最后一个 token 的位置。如果在配置中定义了 pad_token_id,它会在每行中找到最后一个不是填充 token 的 token。如果未定义 pad_token_id,它只会获取批次中每行的最后一个值。由于当传递 inputs_embeds 而不是 input_ids 时,它无法猜测填充 token,因此它会执行相同的操作(获取批次中每行的最后一个值)。

此模型继承自 TFPreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 keras.Model 子类。将其用作常规 TF 2.0 Keras 模型,并参阅 TF 2.0 文档,了解与常规用法和行为相关的所有事项。

transformers 中的 TensorFlow 模型和层接受两种输入格式

  • 将所有输入作为关键字参数(如 PyTorch 模型),或
  • 将所有输入作为列表、元组或字典放在第一个位置参数中。

支持第二种格式的原因是 Keras 方法在将输入传递给模型和层时更喜欢这种格式。由于这种支持,当使用 model.fit() 等方法时,事情应该对您“正常工作” - 只需以 model.fit() 支持的任何格式传递您的输入和标签即可!但是,如果您想在 Keras 方法(如 fit()predict())之外使用第二种格式,例如在使用 Keras Functional API 创建您自己的层或模型时,您可以使用以下三种可能性来收集第一个位置参数中的所有输入 Tensors

  • 仅使用 input_ids 且不包含其他内容的单个 Tensor:model(input_ids)
  • 长度可变的列表,其中包含一个或多个输入 Tensors,顺序与文档字符串中给出的顺序相同:model([input_ids, attention_mask])model([input_ids, attention_mask, token_type_ids])
  • 字典,其中包含一个或多个与文档字符串中给出的输入名称关联的输入 Tensors:model({"input_ids": input_ids, "token_type_ids": token_type_ids})

请注意,当使用 子类化 创建模型和层时,您无需担心任何这些,因为您可以像对待任何其他 Python 函数一样传递输入!

call

< >

( input_ids: TFModelInputType | None = None mems: List[tf.Tensor] | None = None head_mask: np.ndarray | tf.Tensor | None = None inputs_embeds: np.ndarray | tf.Tensor | None = None output_attentions: Optional[bool] = None output_hidden_states: Optional[bool] = None return_dict: Optional[bool] = None labels: np.ndarray | tf.Tensor | None = None training: Optional[bool] = False ) transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPasttuple(tf.Tensor)

参数

  • input_ids (tf.Tensor 或形状为 (batch_size, sequence_length)Numpy array) — 词汇表中输入序列 tokens 的索引。

    可以使用 AutoTokenizer 获得索引。 有关详细信息,请参阅 PreTrainedTokenizer.call()PreTrainedTokenizer.encode()

    什么是输入 IDs?

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含模型计算出的预先计算的隐藏状态(注意力块中的键和值)(请参阅下面的 mems 输出)。 可用于加速顺序解码。 已将其 mems 提供给此模型的 token id 不应作为 input_ids 传递,因为它们已被计算过。
  • head_mask (tf.TensorNumpy array,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于置空自注意力模块中选定 head 的掩码。掩码值应在 [0, 1] 中选择:

    • 1 表示 head 不被掩盖
    • 0 表示 head 被掩盖
  • inputs_embeds (tf.TensorNumpy array,形状为 (batch_size, sequence_length, hidden_size)可选) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions。此参数只能在 eager 模式下使用,在 graph 模式下将使用 config 中的值。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states。此参数只能在 eager 模式下使用,在 graph 模式下将使用 config 中的值。
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是纯元组。此参数可以在 eager 模式下使用,在 graph 模式下该值将始终设置为 True。
  • training (bool, 可选, 默认为 False) — 是否在训练模式下使用模型(dropout 模块等某些模块在训练和评估之间具有不同的行为)。
  • labels (形状为 (batch_size, sequence_length)tf.Tensor, 可选) — 用于计算交叉熵分类损失的标签。索引应在 [0, ..., config.vocab_size - 1] 中。

返回值

transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPasttuple(tf.Tensor)

一个 transformers.models.deprecated.transfo_xl.modeling_tf_transfo_xl.TFTransfoXLSequenceClassifierOutputWithPasttf.Tensor 元组(如果传递 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (TransfoXLConfig) 和输入。

  • loss (形状为 (1,)tf.Tensor, 可选, 当提供 labels 时返回) — 分类(或回归,如果 config.num_labels==1)损失。

  • logits (形状为 (batch_size, config.num_labels)tf.Tensor) — 分类(或回归,如果 config.num_labels==1)得分(在 SoftMax 之前)。

  • mems (List[tf.Tensor],长度为 config.n_layers) — 包含预先计算的隐藏状态(注意力块中的键和值)。 可以使用(参见 mems 输入)来加速顺序解码。 已将其过去信息提供给此模型的 token id 不应作为输入 id 传递,因为它们已被计算过。

  • hidden_states (tuple(tf.Tensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — tf.Tensor 元组(embeddings 的输出一个,每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的隐藏状态,加上初始 embedding 输出。

  • attentions (tuple(tf.Tensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — tf.Tensor 元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力 head 中的加权平均值。

TFTransfoXLForSequenceClassification 前向方法,覆盖了 __call__ 特殊方法。

虽然 forward 传递的配方需要在该函数内定义,但应该在此之后调用 Module 实例,而不是调用此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoTokenizer, TFTransfoXLForSequenceClassification
>>> import tensorflow as tf

>>> tokenizer = AutoTokenizer.from_pretrained("transfo-xl/transfo-xl-wt103")
>>> model = TFTransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="tf")

>>> logits = model(**inputs).logits

>>> predicted_class_id = int(tf.math.argmax(logits, axis=-1)[0])
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = TFTransfoXLForSequenceClassification.from_pretrained("transfo-xl/transfo-xl-wt103", num_labels=num_labels)

>>> labels = tf.constant(1)
>>> loss = model(**inputs, labels=labels).loss

内部层

class transformers.AdaptiveEmbedding

< >

( n_token d_embed d_proj cutoffs div_val = 1 sample_softmax = False )

class transformers.TFAdaptiveEmbedding

< >

( n_token d_embed d_proj cutoffs div_val = 1 init_std = 0.02 sample_softmax = False **kwargs )

< > 在 GitHub 上更新