RetriBERT
此模型目前仅处于维护模式,因此我们不会接受任何更改其代码的新的PR。
如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.30.0。您可以通过运行以下命令来执行此操作:pip install -U transformers==4.30.0
。
概述
RetriBERT 模型在博客文章 像我五岁一样解释任何事情:用于开放域长篇问答的模型 中提出。RetriBERT 是一个小型模型,它使用一个或一对 BERT 编码器以及低维投影来对文本进行密集语义索引。
此模型由 yjernite 贡献。训练和使用该模型的代码可以在这里找到 这里。
RetriBertConfig
class transformers.RetriBertConfig
< 源代码 >( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 8 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 share_encoders = True projection_dim = 128 pad_token_id = 0 **kwargs )
参数
- vocab_size (
int
, 可选, 默认值为 30522) — RetriBERT 模型的词汇量。定义了在调用 RetriBertModel 时可以由inputs_ids
表示的不同标记的数量。 - hidden_size (
int
, 可选, 默认值为 768) — 编码器层和池化层的维度。 - num_hidden_layers (
int
, 可选, 默认值为 12) — Transformer 编码器中的隐藏层数量。 - num_attention_heads (
int
, 可选, 默认值为 12) — Transformer 编码器中每个注意力层的注意力头数量。 - intermediate_size (
int
, 可选, 默认值为 3072) — Transformer 编码器中“中间”(通常称为前馈)层的维度。 - hidden_act (
str
或function
, 可选, 默认值为"gelu"
) — 编码器和池化器中的非线性激活函数 (函数或字符串)。 如果为字符串,则支持"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - hidden_dropout_prob (
float
, 可选, 默认值为 0.1) — 嵌入、编码器和池化器中所有全连接层的 dropout 概率。 - attention_probs_dropout_prob (
float
, 可选, 默认值为 0.1) — 注意力概率的 dropout 率。 - max_position_embeddings (
int
, 可选, 默认值为 512) — 此模型可能使用的最大序列长度。 通常将其设置为一个较大的值以防万一 (例如,512 或 1024 或 2048)。 - type_vocab_size (
int
, 可选, 默认值为 2) — 传递到 BertModel 的 token_type_ids 的词汇量。 - initializer_range (
float
, 可选, 默认值为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - layer_norm_eps (
float
, 可选, 默认值为 1e-12) — 层归一化层使用的 epsilon。 - share_encoders (
bool
, 可选, 默认值为True
) — 是否对查询和文档使用相同的 Bert 类型编码器 - projection_dim (
int
, 可选, 默认值为 128) — 投影后查询和文档表示的最终维度
这是一个配置类,用于存储 RetriBertModel 的配置。 它用于根据指定的参数实例化 RetriBertModel 模型,定义模型架构。 使用默认值实例化配置将产生与 RetriBERT yjernite/retribert-base-uncased 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 的文档以获取更多信息。
RetriBertTokenizer
class transformers.RetriBertTokenizer
< source >( vocab_file do_lower_case = True do_basic_tokenize = True never_split = None unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )
参数
- vocab_file (
str
) — 包含词汇表的 文件。 - do_lower_case (
bool
, 可选, 默认值True
) — 是否在分词时将输入转换为小写。 - do_basic_tokenize (
bool
, 可选, 默认值True
) — 是否在 WordPiece 之前进行基本分词。 - never_split (
Iterable
, 可选) — 分词期间永远不会拆分的标记集合。 当do_basic_tokenize=True
时才起作用 - unk_token (
str
, 可选, 默认值"[UNK]"
) — 未知标记。 词汇表中不存在的标记无法转换为 ID,因此将设置为此标记。 - sep_token (
str
, 可选, 默认值"[SEP]"
) — 分隔标记,用于从多个序列构建序列,例如用于序列分类的两个序列或用于问答的文本和问题。 它也用作用特殊标记构建的序列的最后一个标记。 - pad_token (
str
, 可选, 默认值"[PAD]"
) — 用于填充的标记,例如在对不同长度的序列进行批处理时。 - cls_token (
str
, 可选, 默认值"[CLS]"
) — 分类标记,用于执行序列分类(对整个序列进行分类而不是对每个标记进行分类)。 它是使用特殊标记构建的序列的第一个标记。 - strip_accents (
bool
, 可选) — 是否去除所有音调。如果未指定此选项,则将由lowercase
的值决定(与原始 BERT 中一样)。
构建 RetriBERT 分词器。
RetriBertTokenizer 与 BertTokenizer 相同,并执行端到端的分词:标点符号分割和词片段化。
此分词器继承自 PreTrainedTokenizer,其中包含大多数主要方法。有关这些方法的更多信息,用户应参考:此超类。
build_inputs_with_special_tokens
< 来源 > ( token_ids_0: List token_ids_1: Optional = None ) → List[int]
通过连接和添加特殊标记,从用于序列分类任务的序列或序列对构建模型输入。BERT 序列具有以下格式
- 单个序列:
[CLS] X [SEP]
- 序列对:
[CLS] A [SEP] B [SEP]
将一系列标记(字符串)转换为单个字符串。
RetriBertTokenizerFast
class transformers.RetriBertTokenizerFast
< source >( vocab_file = None tokenizer_file = None do_lower_case = True unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )
参数
- vocab_file (
str
) — 包含词汇表的的文件。 - do_lower_case (
bool
, optional, defaults toTrue
) — 在标记化时是否将输入小写。 - unk_token (
str
, optional, defaults to"[UNK]"
) — 未知标记。词汇表中没有的标记无法转换为 ID,因此会设置为此标记。 - sep_token (
str
, optional, defaults to"[SEP]"
) — 分隔标记,用于从多个序列构建序列,例如用于序列分类的两个序列或用于问答的文本和问题。它也被用作使用特殊标记构建的序列的最后一个标记。 - pad_token (
str
, 可选, 默认为"[PAD]"
) — 用于填充的标记,例如在对不同长度的序列进行批处理时。 - cls_token (
str
, 可选, 默认为"[CLS]"
) — 用于执行序列分类(对整个序列进行分类,而不是对每个标记进行分类)时的分类标记。 它是使用特殊标记构建时的序列的第一个标记。 - mask_token (
str
, 可选, 默认为"[MASK]"
) — 用于掩盖值的标记。 这是在使用掩盖语言建模训练此模型时使用的标记。 这是模型将尝试预测的标记。 - clean_text (
bool
, 可选, 默认为True
) — 是否在分词前清理文本,方法是移除所有控制字符并将所有空格替换为经典空格。 - tokenize_chinese_chars (
bool
, 可选, 默认为True
) — 是否对中文汉字进行分词。 对于日语,此选项可能需要停用(参见 此问题)。 - strip_accents (
bool
, 可选) — 是否去除所有音调符号。 如果未指定此选项,则将由lowercase
的值确定(与原始 BERT 相同)。 - wordpieces_prefix (
str
, 可选, 默认为"##"
) — 子词的前缀。
构造一个“快速”RetriBERT分词器(由 HuggingFace 的 tokenizers 库支持)。
RetriBertTokenizerFast 与 BertTokenizerFast 相同,并运行端到端分词:标点符号分割和词片。
此分词器继承自 PreTrainedTokenizerFast,其中包含大多数主要方法。 用户应参考此超类以获取有关这些方法的更多信息。
build_inputs_with_special_tokens
< source > ( token_ids_0 token_ids_1 = None ) → List[int]
通过连接和添加特殊标记,从用于序列分类任务的序列或序列对构建模型输入。BERT 序列具有以下格式
- 单个序列:
[CLS] X [SEP]
- 序列对:
[CLS] A [SEP] B [SEP]
RetriBertModel
class transformers.RetriBertModel
< 来源 >( config: RetriBertConfig )
参数
- config (RetriBertConfig) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型关联的权重,仅加载配置。 查看 from_pretrained() 方法加载模型权重。
基于 Bert 的模型,用于嵌入查询或文档以进行文档检索。
此模型继承自 PreTrainedModel。 查看超类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪 head 等)。
此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参考 PyTorch 文档了解与一般使用和行为相关的所有事项。
forward
< 来源 > ( input_ids_query: LongTensor attention_mask_query: Optional input_ids_doc: LongTensor attention_mask_doc: Optional checkpoint_batch_size: int = -1 ) → `torch.FloatTensor“
参数
- input_ids_query (
torch.LongTensor
形状为(batch_size, sequence_length)
) — 一批查询中,词汇表中输入序列标记的索引。可以使用 AutoTokenizer 获取索引。 查看 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call() 了解详情。
- attention_mask_query (
torch.FloatTensor
形状为(batch_size, sequence_length)
, 可选) — 掩码,用于避免对填充标记索引执行注意力。 掩码值在[0, 1]
中选择:- 1 表示未屏蔽的标记,
- 0 表示屏蔽的标记。
- attention_mask_doc (
torch.FloatTensor
形状为(batch_size, sequence_length)
, 可选) — 用于避免对文档填充标记索引进行注意力的掩码。 - checkpoint_batch_size (
int
, 可选,默认为-1
) — 如果大于 0,则使用梯度检查点,仅在 GPU 上一次计算checkpoint_batch_size
个样本的序列表示。 所有查询表示仍然与批次中的所有文档表示进行比较。
返回
`torch.FloatTensor“
在尝试将每个查询与其相应的文档以及每个文档与其相应的查询进行匹配时获得的双向交叉熵损失。