LLM 课程文档
处理多个序列
并获得增强的文档体验
开始入门
处理多个序列
在前一节中,我们探讨了最简单的用例:对小长度的单个序列进行推理。然而,已经出现了一些问题
- 我们如何处理多个序列?
- 我们如何处理长度不同的多个序列?
- 词汇表索引是唯一能让模型良好工作的输入吗?
- 序列是否会太长?
让我们看看这些问题会带来哪些问题,以及我们如何使用 🤗 Transformers API 解决这些问题。
模型期望输入批次
在之前的练习中,您看到了序列如何转换为数字列表。让我们将此数字列表转换为张量并将其发送到模型
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
checkpoint = "distilbert-base-uncased-finetuned-sst-2-english"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequence = "I've been waiting for a HuggingFace course my whole life."
tokens = tokenizer.tokenize(sequence)
ids = tokenizer.convert_tokens_to_ids(tokens)
input_ids = torch.tensor(ids)
# This line will fail.
model(input_ids)
IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)
糟糕!为什么会失败?我们按照第 2 节中管道的步骤操作。
问题是我们向模型发送了单个序列,而 🤗 Transformers 模型默认期望多个句子。在这里,我们尝试执行分词器在应用于 sequence
时在幕后所做的一切。但是,如果您仔细观察,您会发现分词器不仅仅将输入 ID 列表转换为张量,它还在其顶部添加了一个维度
tokenized_inputs = tokenizer(sequence, return_tensors="pt")
print(tokenized_inputs["input_ids"])
tensor([[ 101, 1045, 1005, 2310, 2042, 3403, 2005, 1037, 17662, 12172,
2607, 2026, 2878, 2166, 1012, 102]])
让我们再次尝试并添加一个新维度
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
checkpoint = "distilbert-base-uncased-finetuned-sst-2-english"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequence = "I've been waiting for a HuggingFace course my whole life."
tokens = tokenizer.tokenize(sequence)
ids = tokenizer.convert_tokens_to_ids(tokens)
input_ids = torch.tensor([ids])
print("Input IDs:", input_ids)
output = model(input_ids)
print("Logits:", output.logits)
我们打印了输入 ID 以及生成的 logits — 这是输出
Input IDs: [[ 1045, 1005, 2310, 2042, 3403, 2005, 1037, 17662, 12172, 2607, 2026, 2878, 2166, 1012]]
Logits: [[-2.7276, 2.8789]]
批处理是指一次性通过模型发送多个句子的行为。如果您只有一个句子,您可以只构建一个包含单个序列的批次
batched_ids = [ids, ids]
这是一个包含两个相同序列的批次!
✏️ 试一试! 将此 batched_ids
列表转换为张量并将其传递给您的模型。检查您是否获得与之前相同的 logits(但两次!)!
当您向模型馈送多个句子时,批处理允许模型工作。使用多个序列就像构建包含单个序列的批次一样简单。但是,还有第二个问题。当您尝试将两个(或更多)句子批量处理在一起时,它们的长度可能不同。如果您以前使用过张量,您就会知道它们需要是矩形形状,因此您无法直接将输入 ID 列表转换为张量。为了解决这个问题,我们通常填充输入。
填充输入
以下列表列表无法转换为张量
batched_ids = [
[200, 200, 200],
[200, 200]
]
为了解决这个问题,我们将使用填充来使我们的张量具有矩形形状。填充通过向值较少的句子添加一个名为填充标记的特殊词来确保我们所有的句子都具有相同的长度。例如,如果您有 10 个包含 10 个单词的句子和 1 个包含 20 个单词的句子,则填充将确保所有句子都有 20 个单词。在我们的示例中,生成的张量如下所示
padding_id = 100
batched_ids = [
[200, 200, 200],
[200, 200, padding_id],
]
填充标记 ID 可以在 tokenizer.pad_token_id
中找到。让我们使用它并将我们的两个句子单独和批量地发送到模型中
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequence1_ids = [[200, 200, 200]]
sequence2_ids = [[200, 200]]
batched_ids = [
[200, 200, 200],
[200, 200, tokenizer.pad_token_id],
]
print(model(torch.tensor(sequence1_ids)).logits)
print(model(torch.tensor(sequence2_ids)).logits)
print(model(torch.tensor(batched_ids)).logits)
tensor([[ 1.5694, -1.3895]], grad_fn=<AddmmBackward>)
tensor([[ 0.5803, -0.4125]], grad_fn=<AddmmBackward>)
tensor([[ 1.5694, -1.3895],
[ 1.3373, -1.2163]], grad_fn=<AddmmBackward>)
我们批量预测中的 logits 有些问题:第二行应该与第二个句子的 logits 相同,但我们得到了完全不同的值!
这是因为 Transformer 模型的关键特征是注意力层,它可以上下文关联每个标记。这些将考虑到填充标记,因为它们会关注序列的所有标记。为了在通过模型传递不同长度的单个句子或传递包含相同句子和应用填充的批次时获得相同的结果,我们需要告诉这些注意力层忽略填充标记。这可以通过使用注意力掩码来完成。
注意力掩码
注意力掩码是与输入 ID 张量形状完全相同的张量,填充了 0 和 1:1 表示应关注相应的标记,0 表示不应关注相应的标记(即,它们应被模型的注意力层忽略)。
让我们用注意力掩码完成之前的示例
batched_ids = [
[200, 200, 200],
[200, 200, tokenizer.pad_token_id],
]
attention_mask = [
[1, 1, 1],
[1, 1, 0],
]
outputs = model(torch.tensor(batched_ids), attention_mask=torch.tensor(attention_mask))
print(outputs.logits)
tensor([[ 1.5694, -1.3895],
[ 0.5803, -0.4125]], grad_fn=<AddmmBackward>)
现在,我们在批处理中为第二个句子获得了相同的 logits。
请注意,第二个序列的最后一个值是填充 ID,它是注意力掩码中的 0 值。
✏️ 试一试! 在第 2 节中使用的两个句子(“I’ve been waiting for a HuggingFace course my whole life.” 和 “I hate this so much!”)上手动应用分词。将它们传递到模型中,并检查您是否获得与第 2 节中相同的 logits。现在使用填充标记将它们批量处理在一起,然后创建适当的注意力掩码。检查通过模型时是否获得相同的结果!
更长的序列
对于 Transformer 模型,我们可以传递给模型的序列长度是有限制的。大多数模型处理最多 512 或 1024 个标记的序列,当要求处理更长的序列时会崩溃。解决此问题有两种方法
- 使用支持更长序列长度的模型。
- 截断您的序列。
模型具有不同的支持序列长度,有些模型专门用于处理非常长的序列。Longformer 是一个例子,另一个是 LED。如果您正在处理需要非常长序列的任务,我们建议您查看这些模型。
否则,我们建议您通过指定 max_sequence_length
参数来截断您的序列
sequence = sequence[:max_sequence_length]