Transformers 文档

Splinter

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Splinter

PyTorch

概述

Splinter 模型由 Ori Ram、Yuval Kirstain、Jonathan Berant、Amir Globerson 和 Omer Levy 在论文《Few-Shot Question Answering by Pretraining Span Selection》中提出。Splinter 是一个仅编码器的 Transformer 模型(类似于 BERT),它在一个包含维基百科和多伦多图书语料库的大型语料库上使用重复片段选择任务进行预训练。

论文摘要如下:

在多个问答基准测试中,预训练模型通过在大约 100,000 个带标注的问题和答案上进行微调,达到了与人类相当的水平。我们探索了更现实的小样本设置,其中只有几百个训练样本可用,并观察到标准模型表现不佳,这突显了当前预训练目标与问答任务之间的差异。我们提出了一种专为问答量身定制的新预训练方案:重复片段选择。给定一段包含多组重复片段的文本,我们在每组中掩盖除一个之外的所有重复片段,并要求模型为每个被掩盖的片段在段落中选择正确的片段。被掩盖的片段被一个特殊的标记替换,该标记被视为问题表示,随后在微调期间用于选择答案片段。由此产生的模型在多个基准测试中获得了令人惊讶的好结果(例如,在 SQuAD 上仅用 128 个训练样本就达到了 72.7 的 F1 分数),同时在高资源设置下仍保持有竞争力的性能。

此模型由 yuvalkirstainoriram 贡献。原始代码可以在此处找到。

使用技巧

  • Splinter 被训练用于根据一个特殊的 [QUESTION] 标记来预测答案片段。这些标记会根据上下文生成问题表示,用于预测答案。这一层称为 QASS,是 SplinterForQuestionAnswering 类中的默认行为。因此:
  • 请使用 SplinterTokenizer(而不是 BertTokenizer),因为它已经包含了这个特殊的标记。此外,它的默认行为是在给定两个序列时使用此标记(例如,在 run_qa.py 脚本中)。
  • 如果您计划在 run_qa.py 之外使用 Splinter,请记住问题标记——它可能对模型的成功至关重要,尤其是在小样本设置中。
  • 请注意,每种大小的 Splinter 都有两个不同的检查点。两者基本相同,只是其中一个还包含了 QASS 层的预训练权重(tau/splinter-base-qasstau/splinter-large-qass),而另一个没有(tau/splinter-basetau/splinter-large)。这样做是为了支持在微调时随机初始化该层,因为论文中表明,在某些情况下这样做可以获得更好的结果。

资源

SplinterConfig

class transformers.SplinterConfig

< >

( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 use_cache = True pad_token_id = 0 question_token_id = 104 **kwargs )

参数

  • vocab_size (int, 可选, 默认为 30522) — Splinter 模型的词汇表大小。定义了在调用 SplinterModel 时传入的 inputs_ids 可以表示的不同标记的数量。
  • hidden_size (int, 可选, 默认为 768) — 编码器层和池化层的维度。
  • num_hidden_layers (int, 可选, 默认为 12) — Transformer 编码器中的隐藏层数量。
  • num_attention_heads (int, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数量。
  • intermediate_size (int, 可选, 默认为 3072) — Transformer 编码器中“中间”(即前馈)层的维度。
  • hidden_act (str or function, 可选, 默认为 "gelu") — 编码器和池化层中的非线性激活函数(函数或字符串)。如果为字符串,支持 "gelu""relu""selu""gelu_new"
  • hidden_dropout_prob (float, 可选, 默认为 0.1) — 嵌入层、编码器和池化层中所有全连接层的丢弃概率。
  • attention_probs_dropout_prob (float, 可选, 默认为 0.1) — 注意力概率的丢弃率。
  • max_position_embeddings (int, 可选, 默认为 512) — 此模型可能使用的最大序列长度。通常将其设置为一个较大的值以备不时之需(例如,512、1024 或 2048)。
  • type_vocab_size (int, 可选, 默认为 2) — 调用 SplinterModel 时传入的 token_type_ids 的词汇表大小。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-12) — 层归一化层使用的 epsilon 值。
  • use_cache (bool, 可选, 默认为 True) — 模型是否应返回最后一个键/值注意力(并非所有模型都使用)。仅在 config.is_decoder=True 时相关。
  • question_token_id (int, 可选, 默认为 104) — [QUESTION] 标记的 ID。

这是用于存储 SplinterModel 配置的配置类。它用于根据指定的参数实例化 Splinter 模型,定义模型架构。使用默认值实例化配置将产生与 Splinter tau/splinter-base 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。更多信息请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import SplinterModel, SplinterConfig

>>> # Initializing a Splinter tau/splinter-base style configuration
>>> configuration = SplinterConfig()

>>> # Initializing a model from the tau/splinter-base style configuration
>>> model = SplinterModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

SplinterTokenizer

class transformers.SplinterTokenizer

< >

( vocab_file do_lower_case = True do_basic_tokenize = True never_split = None unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' question_token = '[QUESTION]' tokenize_chinese_chars = True strip_accents = None **kwargs )

参数

  • vocab_file (str) — 包含词汇表的文件。
  • do_lower_case (bool, 可选, 默认为 True) — 是否在分词时将输入转换为小写。
  • do_basic_tokenize (bool, 可选, 默认为 True) — 是否在 WordPiece 分词前进行基本分词。
  • never_split (Iterable, 可选) — 在分词过程中永远不会被分割的标记集合。仅在 do_basic_tokenize=True 时有效。
  • unk_token (str, 可选, 默认为 "[UNK]") — 未知标记。不在词汇表中的标记无法转换为 ID,将被设置为此标记。
  • sep_token (str, 可选, 默认为 "[SEP]") — 分隔符标记,用于从多个序列构建一个序列,例如用于序列分类的两个序列,或用于问答任务的文本和问题。它也用作带有特殊标记构建的序列的最后一个标记。
  • pad_token (str, optional, defaults to "[PAD]") — 用于填充的词元,例如在批处理不同长度的序列时使用。
  • cls_token (str, optional, defaults to "[CLS]") — 分类器词元,用于序列分类任务(对整个序列进行分类,而不是逐词元分类)。在使用特殊词元构建序列时,它是序列的第一个词元。
  • mask_token (str, optional, defaults to "[MASK]") — 用于掩码值的词元。在使用掩码语言建模训练此模型时使用此词元。模型将尝试预测此词元。
  • question_token (str, optional, defaults to "[QUESTION]") — 用于构建问题表示的词元。
  • tokenize_chinese_chars (bool, optional, defaults to True) — 是否对中文字符进行分词。

    对于日语,此选项可能需要禁用(参见此 issue)。

  • strip_accents (bool, optional) — 是否移除所有重音符号。如果未指定此选项,则将由 lowercase 的值决定(与原始 BERT 一致)。

构建一个 Splinter 分词器。基于 WordPiece。

该分词器继承自 PreTrainedTokenizer,其中包含了大部分主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — 如果 pad_on_right 为真,则为问题词元 ID,否则为上下文词元 ID。
  • token_ids_1 (list[int], optional) — 如果 pad_on_right 为真,则为上下文词元 ID,否则为问题词元 ID。

返回

list[int]

带有适当特殊标记的输入ID列表。

通过拼接和添加特殊词元,为问答任务从一对序列构建模型输入。一个 Splinter 序列具有以下格式

  • 单个序列:[CLS] X [SEP]
  • 用于问答的序列对:[CLS] 问题词元 [QUESTION] . [SEP] 上下文词元 [SEP]

get_special_tokens_mask

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None already_has_special_tokens: bool = False ) list[int]

参数

  • token_ids_0 (list[int]) — ID 列表。
  • token_ids_1 (list[int], optional) — 可选的第二个 ID 列表,用于序列对。
  • already_has_special_tokens (bool, optional, defaults to False) — 词元列表是否已经使用模型的特殊词元进行了格式化。

返回

list[int]

一个范围为 [0, 1] 的整数列表:1 表示特殊标记,0 表示序列标记。

从没有添加特殊标记的标记列表中检索序列ID。此方法在使用分词器prepare_for_model方法添加特殊标记时调用。

create_token_type_ids_from_sequences

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — 第一个分词后的序列。
  • token_ids_1 (list[int], optional) — 第二个分词后的序列。

返回

list[int]

标记类型 ID。

创建与传入序列对应的标记类型 ID。什么是标记类型 ID?

如果模型有特殊的构建方式,应在子类中重写此方法。

save_vocabulary

< >

( save_directory: str filename_prefix: typing.Optional[str] = None )

SplinterTokenizerFast

class transformers.SplinterTokenizerFast

< >

( vocab_file = None tokenizer_file = None do_lower_case = True unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' question_token = '[QUESTION]' tokenize_chinese_chars = True strip_accents = None **kwargs )

参数

  • vocab_file (str) — 包含词汇表的文件。
  • do_lower_case (bool, optional, defaults to True) — 是否在分词时将输入转换为小写。
  • unk_token (str, optional, defaults to "[UNK]") — 未知词元。不在词汇表中的词元无法转换为 ID,将被设置为此词元。
  • sep_token (str, optional, defaults to "[SEP]") — 分隔符词元,用于从多个序列构建一个序列,例如用于序列分类的两个序列,或用于问答的文本和问题。它也用作使用特殊词元构建的序列的最后一个词元。
  • pad_token (str, optional, defaults to "[PAD]") — 用于填充的词元,例如在批处理不同长度的序列时使用。
  • cls_token (str, optional, defaults to "[CLS]") — 分类器词元,用于序列分类任务(对整个序列进行分类,而不是逐词元分类)。在使用特殊词元构建序列时,它是序列的第一个词元。
  • mask_token (str, optional, defaults to "[MASK]") — 用于掩码值的词元。在使用掩码语言建模训练此模型时使用此词元。模型将尝试预测此词元。
  • question_token (str, optional, defaults to "[QUESTION]") — 用于构建问题表示的词元。
  • clean_text (bool, optional, defaults to True) — 是否在分词前通过移除所有控制字符并将所有空白符替换为经典空格来清理文本。
  • tokenize_chinese_chars (bool, optional, defaults to True) — 是否对中文字符进行分词。对于日语,此选项可能需要禁用(参见此 issue)。
  • strip_accents (bool, optional) — 是否移除所有重音符号。如果未指定此选项,则将由 lowercase 的值决定(与原始 BERT 一致)。
  • wordpieces_prefix (str, optional, defaults to "##") — 子词的前缀。

构建一个“快速”的 Splinter 分词器(由 HuggingFace 的 *tokenizers* 库支持)。基于 WordPiece。

该分词器继承自 PreTrainedTokenizerFast,其中包含了大部分主要方法。用户应参考此超类以获取有关这些方法的更多信息。

build_inputs_with_special_tokens

< >

( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) list[int]

参数

  • token_ids_0 (list[int]) — 如果 pad_on_right 为真,则为问题词元 ID,否则为上下文词元 ID。
  • token_ids_1 (list[int], optional) — 如果 pad_on_right 为真,则为上下文词元 ID,否则为问题词元 ID。

返回

list[int]

带有适当特殊标记的输入ID列表。

通过拼接和添加特殊词元,为问答任务从一对序列构建模型输入。一个 Splinter 序列具有以下格式

  • 单个序列:[CLS] X [SEP]
  • 用于问答的序列对:[CLS] 问题词元 [QUESTION] . [SEP] 上下文词元 [SEP]

SplinterModel

class transformers.SplinterModel

< >

( config )

参数

  • config (SplinterModel) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查阅 from_pretrained() 方法来加载模型权重。

基础的 Splinter 模型,输出原始的隐藏状态,顶部没有任何特定的头。

此模型继承自 PreTrainedModel。请查阅超类的文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 的子类。可以像常规的 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None encoder_hidden_states: typing.Optional[torch.Tensor] = None encoder_attention_mask: typing.Optional[torch.Tensor] = None past_key_values: typing.Optional[list[torch.FloatTensor]] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.modeling_outputs.BaseModelOutputWithPastAndCrossAttentions or tuple(torch.FloatTensor)

参数

  • input_ids (torch.Tensor, 形状为 (batch_size, sequence_length), optional) — 词汇表中输入序列词元的索引。默认情况下,填充将被忽略。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor, 形状为 (batch_size, sequence_length), optional) — 用于避免对填充词元索引执行注意力的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示词元未被掩码
    • 0 表示词元被掩码

    什么是注意力掩码?

  • token_type_ids (torch.LongTensor, 形状为 batch_size, sequence_length, optional) — 分段词元索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于*句子 A* 的词元,
    • 1 对应于*句子 B* 的词元。

    什么是词元类型 ID?

  • position_ids (torch.LongTensor, 形状为 batch_size, sequence_length, optional) — 每个输入序列词元在位置嵌入中的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • head_mask (torch.Tensor, 形状为 (num_heads,)(num_layers, num_heads), optional) — 用于使自注意力模块的选定头部无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部未被掩码
    • 0 表示头部被掩码
  • inputs_embeds (torch.Tensor, 形状为 (batch_size, sequence_length, hidden_size), optional) — 可选地,你可以不传递 input_ids,而是直接传递嵌入表示。如果你想比模型的内部嵌入查找矩阵有更多控制权来将 input_ids 索引转换为相关向量,这将非常有用。
  • encoder_hidden_states (torch.Tensor, 形状为 (batch_size, sequence_length, hidden_size), optional) — 编码器最后一层输出的隐藏状态序列。如果模型被配置为解码器,则在交叉注意力中使用。
  • encoder_attention_mask (torch.Tensor, 形状为 (batch_size, sequence_length), optional) — 用于避免对编码器输入的填充词元索引执行注意力的掩码。如果模型被配置为解码器,则在交叉注意力中使用此掩码。掩码值在 [0, 1] 中选择:

    • 1 表示词元未被掩码
    • 0 表示词元被掩码
  • past_key_values (list[torch.FloatTensor], optional) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速序列解码。这通常包括模型在解码的前一个阶段返回的 `past_key_values`,当 `use_cache=True` 或 `config.use_cache=True` 时。

    允许两种格式:

    • 一个 Cache 实例,请参阅我们的 kv 缓存指南
    • 长度为 `config.n_layers` 的 `tuple(torch.FloatTensor)` 元组,每个元组包含 2 个形状为 `(batch_size, num_heads, sequence_length, embed_size_per_head)` 的张量。这也称为旧版缓存格式。

    模型将输出与输入相同的缓存格式。如果未传递 `past_key_values`,则将返回旧版缓存格式。

    如果使用 `past_key_values`,用户可以选择只输入最后的 `input_ids`(那些没有为其提供过去键值状态的词元),形状为 `(batch_size, 1)`,而不是所有形状为 `(batch_size, sequence_length)` 的 `input_ids`。

  • use_cache (bool, optional) — 如果设置为 True,则返回 `past_key_values` 键值状态,可用于加速解码(参见 `past_key_values`)。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 `attentions`。
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 `hidden_states`。
  • return_dict (bool, optional) — 是否返回一个 ModelOutput 而不是一个普通的元组。

返回

transformers.modeling_outputs.BaseModelOutputWithPastAndCrossAttentionstuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPastAndCrossAttentions 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时),根据配置(SplinterConfig)和输入,包含不同的元素。

  • last_hidden_state (torch.FloatTensor, 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出的隐藏状态序列。

    如果使用了 past_key_values,则只输出形状为 (batch_size, 1, hidden_size) 的序列的最后一个隐藏状态。

  • past_key_values (Cache, optional, 在传递 use_cache=Trueconfig.use_cache=True 时返回) — 这是一个 Cache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南

    包含预计算的隐藏状态(自注意力块中的键和值,如果 `config.is_encoder_decoder=True`,则还包括交叉注意力块中的键和值),可用于(参见 `past_key_values` 输入)加速序列解码。

  • hidden_states (tuple(torch.FloatTensor), optional, 在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — `torch.FloatTensor` 的元组(一个用于嵌入层的输出(如果模型有嵌入层),再加上每个层的输出),形状为 `(batch_size, sequence_length, hidden_size)`。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — `torch.FloatTensor` 的元组(每层一个),形状为 `(batch_size, num_heads, sequence_length, sequence_length)`。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), optional, 在传递 output_attentions=Trueconfig.add_cross_attention=Trueconfig.output_attentions=True 时返回) — `torch.FloatTensor` 的元组(每层一个),形状为 `(batch_size, num_heads, sequence_length, sequence_length)`。

    解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。

SplinterModel 的 forward 方法,重写了 `__call__` 特殊方法。

虽然前向传播的配方需要在此函数中定义,但之后应调用 Module 实例而不是此函数,因为前者会负责运行前处理和后处理步骤,而后者会静默地忽略它们。

SplinterForQuestionAnswering

class transformers.SplinterForQuestionAnswering

< >

( config )

参数

  • config (SplinterForQuestionAnswering) — 包含模型所有参数的模型配置类。使用配置文件进行初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

Splinter transformer 在顶部带有一个片段分类头,用于处理如 SQuAD 这样的抽取式问答任务(在隐藏状态输出之上添加一个线性层,用于计算 span start logitsspan end logits)。

此模型继承自 PreTrainedModel。请查阅超类的文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 的子类。可以像常规的 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None start_positions: typing.Optional[torch.LongTensor] = None end_positions: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None question_positions: typing.Optional[torch.LongTensor] = None ) transformers.modeling_outputs.QuestionAnsweringModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.Tensor,形状为 (batch_size, sequence_length)可选) — 词汇表中输入序列标记的索引。默认情况下,填充将被忽略。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor,形状为 (batch_size, sequence_length)可选) — 用于避免对填充标记索引执行注意力计算的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示标记未被掩码
    • 0 表示标记已被掩码

    什么是注意力掩码?

  • token_type_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 *句子 A* 的标记,
    • 1 对应于 *句子 B* 的标记。

    什么是标记类型 ID?

  • position_ids (torch.LongTensor,形状为 (batch_size, sequence_length)可选) — 每个输入序列标记在位置嵌入中的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • head_mask (torch.Tensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于置零自注意力模块中选定头的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头未被掩码
    • 0 表示头已被掩码
  • inputs_embeds (torch.Tensor,形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递 input_ids。如果你想对如何将 input_ids 索引转换为相关向量进行更多控制,而不是使用模型内部的嵌入查找矩阵,这会很有用。
  • start_positions (torch.LongTensor,形状为 (batch_size,)可选) — 标记片段开始位置(索引)的标签,用于计算标记分类损失。位置被限制在序列长度(sequence_length)范围内。序列之外的位置不计入损失计算。
  • end_positions (torch.LongTensor,形状为 (batch_size,)可选) — 标记片段结束位置(索引)的标签,用于计算标记分类损失。位置被限制在序列长度(sequence_length)范围内。序列之外的位置不计入损失计算。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通的元组。
  • question_positions (torch.LongTensor,形状为 (batch_size, num_questions)可选) — 所有问题标记的位置。如果给定,start_logits 和 end_logits 的形状将为 (batch_size, num_questions, sequence_length)。如果为 None,批次中每个序列的第一个问题标记将是唯一计算 start_logits 和 end_logits 的标记,它们的形状将为 (batch_size, sequence_length)

返回

transformers.modeling_outputs.QuestionAnsweringModelOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.QuestionAnsweringModelOutput 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置(SplinterConfig)和输入而异的各种元素。

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 总范围提取损失是起始位置和结束位置的交叉熵之和。

  • start_logits (torch.FloatTensor of shape (batch_size, sequence_length)) — 范围起始分数(SoftMax 之前)。

  • end_logits (torch.FloatTensor of shape (batch_size, sequence_length)) — 范围结束分数(SoftMax 之前)。

  • hidden_states (tuple(torch.FloatTensor), optional, 在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — `torch.FloatTensor` 的元组(一个用于嵌入层的输出(如果模型有嵌入层),再加上每个层的输出),形状为 `(batch_size, sequence_length, hidden_size)`。

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — `torch.FloatTensor` 的元组(每层一个),形状为 `(batch_size, num_heads, sequence_length, sequence_length)`。

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

SplinterForQuestionAnswering 的 forward 方法会覆盖 __call__ 特殊方法。

虽然前向传播的配方需要在此函数中定义,但之后应调用 Module 实例而不是此函数,因为前者会负责运行前处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoTokenizer, SplinterForQuestionAnswering
>>> import torch

>>> tokenizer = AutoTokenizer.from_pretrained("tau/splinter-base")
>>> model = SplinterForQuestionAnswering.from_pretrained("tau/splinter-base")

>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"

>>> inputs = tokenizer(question, text, return_tensors="pt")
>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> answer_start_index = outputs.start_logits.argmax()
>>> answer_end_index = outputs.end_logits.argmax()

>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> tokenizer.decode(predict_answer_tokens, skip_special_tokens=True)
...

>>> # target is "nice puppet"
>>> target_start_index = torch.tensor([14])
>>> target_end_index = torch.tensor([15])

>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = outputs.loss
>>> round(loss.item(), 2)
...

SplinterForPreTraining

class transformers.SplinterForPreTraining

< >

( config )

参数

  • config (SplinterForPreTraining) — 包含模型所有参数的模型配置类。使用配置文件进行初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

Splinter 模型用于在预训练期间执行的重复片段选择任务。与 QA 任务不同的是,我们没有一个问题,而是用多个问题标记替换重复片段的出现。

此模型继承自 PreTrainedModel。请查阅超类的文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

该模型也是 PyTorch torch.nn.Module 的子类。可以像常规的 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None start_positions: typing.Optional[torch.LongTensor] = None end_positions: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None question_positions: typing.Optional[torch.LongTensor] = None ) transformers.models.splinter.modeling_splinter.SplinterForPreTrainingOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, num_questions, sequence_length)) — 词汇表中输入序列标记的索引。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor,形状为 (batch_size, sequence_length)可选) — 用于避免对填充标记索引执行注意力计算的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示标记未被掩码
    • 0 表示标记已被掩码

    什么是注意力掩码?

  • token_type_ids (torch.LongTensor,形状为 (batch_size, num_questions, sequence_length)可选) — 段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 *句子 A* 的标记,
    • 1 对应于 *句子 B* 的标记。

    什么是标记类型 ID?

  • position_ids (torch.LongTensor,形状为 (batch_size, num_questions, sequence_length)可选) — 每个输入序列标记在位置嵌入中的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • head_mask (torch.Tensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于置零自注意力模块中选定头的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头未被掩码
    • 0 表示头已被掩码
  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, num_questions, sequence_length, hidden_size)可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递 input_ids。如果你想对如何将 *input_ids* 索引转换为相关向量进行更多控制,而不是使用模型内部的嵌入查找矩阵,这会很有用。
  • start_positions (torch.LongTensor,形状为 (batch_size, num_questions)可选) — 标记片段开始位置(索引)的标签,用于计算标记分类损失。位置被限制在序列长度(sequence_length)范围内。序列之外的位置不计入损失计算。
  • end_positions (torch.LongTensor,形状为 (batch_size, num_questions)可选) — 标记片段结束位置(索引)的标签,用于计算标记分类损失。位置被限制在序列长度(sequence_length)范围内。序列之外的位置不计入损失计算。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通的元组。
  • question_positions (torch.LongTensor,形状为 (batch_size, num_questions)可选) — 所有问题标记的位置。如果给定,start_logits 和 end_logits 的形状将为 (batch_size, num_questions, sequence_length)。如果为 None,批次中每个序列的第一个问题标记将是唯一计算 start_logits 和 end_logits 的标记,它们的形状将为 (batch_size, sequence_length)

返回

transformers.models.splinter.modeling_splinter.SplinterForPreTrainingOutputtuple(torch.FloatTensor)

一个 transformers.models.splinter.modeling_splinter.SplinterForPreTrainingOutput 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置(SplinterConfig)和输入而异的各种元素。

  • loss (torch.FloatTensor,形状为 (1,)可选,在提供开始和结束位置时返回) — 总片段提取损失是开始和结束位置的交叉熵损失之和。

  • start_logits (torch.FloatTensor,形状为 (batch_size, num_questions, sequence_length)) — 片段开始分数(在 SoftMax 之前)。

  • end_logits (torch.FloatTensor,形状为 (batch_size, num_questions, sequence_length)) — 片段结束分数(在 SoftMax 之前)。

  • hidden_states (tuple[torch.FloatTensor]可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则一个用于嵌入的输出,另加每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple[torch.FloatTensor]可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

SplinterForPreTraining 的 forward 方法会覆盖 __call__ 特殊方法。

虽然前向传播的配方需要在此函数中定义,但之后应调用 Module 实例而不是此函数,因为前者会负责运行前处理和后处理步骤,而后者会静默地忽略它们。

示例

< > 在 GitHub 上更新