NLP 课程文档

摘要

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始使用

摘要

Ask a Question Open In Colab Open In Studio Lab

在本节中,我们将了解如何使用 Transformer 模型将长文档压缩成摘要,这项任务称为文本摘要。 这是一个极具挑战性的 NLP 任务,因为它需要一系列能力,例如理解长篇内容并生成连贯的文本以捕捉文档中的主要主题。 然而,如果做好,文本摘要是一个强大的工具,可以通过减轻领域专家详细阅读长文档的负担来加速各种业务流程。

尽管在 Hugging Face Hub 上已经存在各种针对摘要进行微调的模型,但几乎所有这些模型都只适用于英文文档。 因此,为了在本节中增加趣味性,我们将训练一个用于英语和西班牙语的双语模型。 在本节结束时,您将拥有一个可以对如下所示的客户评论进行摘要的 模型

正如我们将看到的,这些摘要之所以简洁,是因为它们是从客户在产品评论中提供的标题中学习到的。 让我们从为这项任务构建一个合适的双语语料库开始。

准备多语言语料库

我们将使用 多语言亚马逊评论语料库 来创建我们的双语摘要器。 此语料库包含六种语言的亚马逊产品评论,通常用于对多语言分类器进行基准测试。 但是,由于每个评论都附带一个简短的标题,因此我们可以使用这些标题作为模型学习的目标摘要! 首先,让我们从 Hugging Face Hub 下载英语和西班牙语子集

from datasets import load_dataset

spanish_dataset = load_dataset("amazon_reviews_multi", "es")
english_dataset = load_dataset("amazon_reviews_multi", "en")
english_dataset
DatasetDict({
    train: Dataset({
        features: ['review_id', 'product_id', 'reviewer_id', 'stars', 'review_body', 'review_title', 'language', 'product_category'],
        num_rows: 200000
    })
    validation: Dataset({
        features: ['review_id', 'product_id', 'reviewer_id', 'stars', 'review_body', 'review_title', 'language', 'product_category'],
        num_rows: 5000
    })
    test: Dataset({
        features: ['review_id', 'product_id', 'reviewer_id', 'stars', 'review_body', 'review_title', 'language', 'product_category'],
        num_rows: 5000
    })
})

如您所见,对于每种语言,train 分割都有 200,000 条评论,validationtest 分割各有 5,000 条评论。 我们感兴趣的评论信息包含在 review_bodyreview_title 列中。 让我们通过创建一个简单的函数来查看一些示例,该函数使用我们在 第 5 章 中学习的技术从训练集中获取随机样本

def show_samples(dataset, num_samples=3, seed=42):
    sample = dataset["train"].shuffle(seed=seed).select(range(num_samples))
    for example in sample:
        print(f"\n'>> Title: {example['review_title']}'")
        print(f"'>> Review: {example['review_body']}'")


show_samples(english_dataset)
'>> Title: Worked in front position, not rear'
'>> Review: 3 stars because these are not rear brakes as stated in the item description. At least the mount adapter only worked on the front fork of the bike that I got it for.'

'>> Title: meh'
'>> Review: Does it’s job and it’s gorgeous but mine is falling apart, I had to basically put it together again with hot glue'

'>> Title: Can\'t beat these for the money'
'>> Review: Bought this for handling miscellaneous aircraft parts and hanger "stuff" that I needed to organize; it really fit the bill. The unit arrived quickly, was well packaged and arrived intact (always a good sign). There are five wall mounts-- three on the top and two on the bottom. I wanted to mount it on the wall, so all I had to do was to remove the top two layers of plastic drawers, as well as the bottom corner drawers, place it when I wanted and mark it; I then used some of the new plastic screw in wall anchors (the 50 pound variety) and it easily mounted to the wall. Some have remarked that they wanted dividers for the drawers, and that they made those. Good idea. My application was that I needed something that I can see the contents at about eye level, so I wanted the fuller-sized drawers. I also like that these are the new plastic that doesn\'t get brittle and split like my older plastic drawers did. I like the all-plastic construction. It\'s heavy duty enough to hold metal parts, but being made of plastic it\'s not as heavy as a metal frame, so you can easily mount it to the wall and still load it up with heavy stuff, or light stuff. No problem there. For the money, you can\'t beat it. Best one of these I\'ve bought to date-- and I\'ve been using some version of these for over forty years.'

✏️ 试一试! 更改 Dataset.shuffle() 命令中的随机种子以探索语料库中的其他评论。 如果您是西班牙语使用者,请查看 spanish_dataset 中的一些评论,看看标题是否也像是合理的摘要。

此示例显示了人们通常在网上找到的各种评论,从正面到负面(以及介于两者之间的所有内容)! 虽然标题为“meh”的示例信息量不大,但其他标题看起来像是对评论本身的不错摘要。 在所有 400,000 条评论上训练摘要模型将花费太长时间才能在一个 GPU 上完成,因此我们将专注于为单个产品领域生成摘要。 为了了解我们可以从中选择哪些领域,让我们将 english_dataset 转换为 pandas.DataFrame 并计算每个产品类别的评论数量

english_dataset.set_format("pandas")
english_df = english_dataset["train"][:]
# Show counts for top 20 products
english_df["product_category"].value_counts()[:20]
home                      17679
apparel                   15951
wireless                  15717
other                     13418
beauty                    12091
drugstore                 11730
kitchen                   10382
toy                        8745
sports                     8277
automotive                 7506
lawn_and_garden            7327
home_improvement           7136
pet_products               7082
digital_ebook_purchase     6749
pc                         6401
electronics                6186
office_product             5521
shoes                      5197
grocery                    4730
book                       3756
Name: product_category, dtype: int64

英语数据集中最受欢迎的产品是关于家居用品、服装和无线电子产品。 不过,为了保持亚马逊的主题,让我们专注于总结书籍评论——毕竟,这就是这家公司创立的初衷! 我们可以看到两个适合的类别(bookdigital_ebook_purchase),所以让我们过滤掉这两种语言中仅包含这些产品的评论。 正如我们在 第 5 章 中看到的,Dataset.filter() 函数允许我们非常有效地切片数据集,因此我们可以定义一个简单的函数来执行此操作

def filter_books(example):
    return (
        example["product_category"] == "book"
        or example["product_category"] == "digital_ebook_purchase"
    )

现在,当我们将此函数应用于 english_datasetspanish_dataset 时,结果将仅包含与书籍类别相关的行。 在应用过滤器之前,让我们将 english_dataset 的格式从 "pandas" 改回 "arrow"

english_dataset.reset_format()

然后我们可以应用过滤器函数,并作为健全性检查,让我们检查评论样本以查看它们是否确实与书籍相关

spanish_books = spanish_dataset.filter(filter_books)
english_books = english_dataset.filter(filter_books)
show_samples(english_books)
'>> Title: I\'m dissapointed.'
'>> Review: I guess I had higher expectations for this book from the reviews. I really thought I\'d at least like it. The plot idea was great. I loved Ash but, it just didnt go anywhere. Most of the book was about their radio show and talking to callers. I wanted the author to dig deeper so we could really get to know the characters. All we know about Grace is that she is attractive looking, Latino and is kind of a brat. I\'m dissapointed.'

'>> Title: Good art, good price, poor design'
'>> Review: I had gotten the DC Vintage calendar the past two years, but it was on backorder forever this year and I saw they had shrunk the dimensions for no good reason. This one has good art choices but the design has the fold going through the picture, so it\'s less aesthetically pleasing, especially if you want to keep a picture to hang. For the price, a good calendar'

'>> Title: Helpful'
'>> Review: Nearly all the tips useful and. I consider myself an intermediate to advanced user of OneNote. I would highly recommend.'

好的,我们可以看到评论并不严格限于书籍,也可能涉及日历和 OneNote 等电子应用程序。 尽管如此,该领域似乎适合在其上训练摘要模型。 在我们查看适合此任务的各种模型之前,我们还有一项数据准备工作要做:将英语和西班牙语评论组合成一个 DatasetDict 对象。 🤗 Datasets 提供了一个方便的 concatenate_datasets() 函数,它(顾名思义)会将两个 Dataset 对象堆叠在一起。 因此,为了创建我们的双语数据集,我们将循环遍历每个分割,连接该分割的数据集,并对结果进行随机排序,以确保我们的模型不会过度拟合到单一语言

from datasets import concatenate_datasets, DatasetDict

books_dataset = DatasetDict()

for split in english_books.keys():
    books_dataset[split] = concatenate_datasets(
        [english_books[split], spanish_books[split]]
    )
    books_dataset[split] = books_dataset[split].shuffle(seed=42)

# Peek at a few examples
show_samples(books_dataset)
'>> Title: Easy to follow!!!!'
'>> Review: I loved The dash diet weight loss Solution. Never hungry. I would recommend this diet. Also the menus are well rounded. Try it. Has lots of the information need thanks.'

'>> Title: PARCIALMENTE DAÑADO'
'>> Review: Me llegó el día que tocaba, junto a otros libros que pedí, pero la caja llegó en mal estado lo cual dañó las esquinas de los libros porque venían sin protección (forro).'

'>> Title: no lo he podido descargar'
'>> Review: igual que el anterior'

这当然看起来像是英语和西班牙语评论的混合! 现在我们有了训练语料库,最后要检查的一件事是评论及其标题中单词的分布。 这对于摘要任务尤其重要,因为数据中简短的参考摘要可能会使模型产生偏差,使其仅在生成的摘要中输出一两个词。 下面的图表显示了单词分布,我们可以看到标题严重偏向于 1-2 个词

Word count distributions for the review titles and texts.

为了解决这个问题,我们将过滤掉标题非常短的示例,以便我们的模型能够生成更有意义的摘要。 由于我们正在处理英语和西班牙语文本,因此我们可以使用粗略的启发式方法在空格处分割标题,然后使用我们可靠的 Dataset.filter() 方法,如下所示

books_dataset = books_dataset.filter(lambda x: len(x["review_title"].split()) > 2)

现在我们已经准备好了语料库,让我们看看一些可以在其上进行微调的可能的 Transformer 模型!

文本摘要模型

仔细想想,文本摘要与机器翻译的任务类似:我们有一段文本,例如评论,希望将其“翻译”成一个较短的版本,并保留输入文本的关键特征。因此,大多数用于摘要的 Transformer 模型都采用了我们在第 1 章中首次遇到的编码器-解码器架构,但也有一些例外,例如 GPT 系列模型,它也可以在少样本设置中用于摘要。下表列出了一些可用于微调摘要的流行预训练模型。

Transformer 模型 描述 支持多语言?
GPT-2 虽然它是作为自回归语言模型进行训练的,但可以通过在输入文本末尾附加“TL;DR”来使 GPT-2 生成摘要。
PEGASUS 使用预训练目标来预测多句文本中的掩码句子。这种预训练目标比普通的语言建模更接近于摘要,并且在流行的基准测试中得分很高。
T5 一种通用的 Transformer 架构,它将所有任务都表述为文本到文本的框架;例如,模型总结文档的输入格式为 summarize: ARTICLE
mT5 T5 的多语言版本,在涵盖 101 种语言的多语言公共爬虫语料库 (mC4) 上进行预训练。
BART 一种新颖的 Transformer 架构,它同时具有编码器和解码器堆栈,经过训练以重建损坏的输入,并结合了 BERT 和 GPT-2 的预训练方案。
mBART-50 BART 的多语言版本,在 50 种语言上进行预训练。

从该表中可以看出,大多数用于摘要的 Transformer 模型(实际上大多数 NLP 任务)都是单语的。如果您的任务是使用“高资源”语言(如英语或德语),那么这很好,但对于世界上使用的其他数千种语言来说,就不那么好了。幸运的是,有一类多语言 Transformer 模型,如 mT5 和 mBART,可以解决这个问题。这些模型使用语言建模进行预训练,但带有一个变化:它们不是在一个语言的语料库上进行训练,而是在 50 多种语言的文本上同时进行训练!

我们将重点关注 mT5,这是一个基于 T5 的有趣架构,它是在文本到文本框架中进行预训练的。在 T5 中,每个 NLP 任务都用类似于 summarize: 的提示前缀来表述,这使模型能够根据提示调整生成的文本。如下图所示,这使得 T5 非常通用,因为您可以使用单个模型解决许多任务!

Different tasks performed by the T5 architecture.

mT5 不使用前缀,但它与 T5 具有许多通用性,并且具有多语言的优势。现在我们已经选择了一个模型,让我们看看如何准备训练数据。

✏️ 试试看! 完成本节内容后,请查看 mT5 与 mBART 的比较效果,方法是使用相同的技术对后者进行微调。为了获得更多分数,您还可以尝试仅对英语评论进行 T5 的微调。由于 T5 具有特殊的提示前缀,因此您需要在下面的预处理步骤中将 summarize: 添加到输入示例之前。

数据预处理

我们的下一个任务是对评论及其标题进行标记化和编码。像往常一样,我们首先加载与预训练模型检查点关联的标记器。我们将使用 mt5-small 作为我们的检查点,以便在合理的时间内微调模型。

from transformers import AutoTokenizer

model_checkpoint = "google/mt5-small"
tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)

💡 在 NLP 项目的早期阶段,一个好的实践是在一小部分数据上训练一类“小型”模型。这使您能够更快地调试和迭代到端到端的工作流程。一旦您对结果有信心,就可以通过简单地更改模型检查点来扩展模型!

让我们在一个小例子上测试 mT5 标记器

inputs = tokenizer("I loved reading the Hunger Games!")
inputs
{'input_ids': [336, 259, 28387, 11807, 287, 62893, 295, 12507, 1], 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1]}

在这里,我们可以看到我们在第 3 章中第一次微调实验中遇到的熟悉的 input_idsattention_mask。让我们使用标记器的 convert_ids_to_tokens() 函数解码这些输入 ID,看看我们正在处理哪种标记器。

tokenizer.convert_ids_to_tokens(inputs.input_ids)
['▁I', '▁', 'loved', '▁reading', '▁the', '▁Hung', 'er', '▁Games', '</s>']

特殊 Unicode 字符 和序列结束标记 </s> 表明我们正在处理 SentencePiece 标记器,它基于我们在第 6 章中讨论的 Unigram 分割算法。Unigram 对于多语言语料库特别有用,因为它允许 SentencePiece 不考虑重音、标点符号以及许多语言(如日语)没有空格字符的事实。

为了标记化我们的语料库,我们必须处理与摘要相关的一个细微差别:因为我们的标签也是文本,所以它们可能会超过模型的最大上下文大小。这意味着我们需要对评论及其标题都应用截断,以确保我们不会向模型传递过长的输入。🤗 Transformers 中的标记器提供了一个巧妙的 text_target 参数,允许您并行对标签和输入进行标记化。以下是如何处理 mT5 的输入和目标的示例。

max_input_length = 512
max_target_length = 30


def preprocess_function(examples):
    model_inputs = tokenizer(
        examples["review_body"],
        max_length=max_input_length,
        truncation=True,
    )
    labels = tokenizer(
        examples["review_title"], max_length=max_target_length, truncation=True
    )
    model_inputs["labels"] = labels["input_ids"]
    return model_inputs

让我们逐步浏览此代码以了解正在发生的事情。我们首先为 max_input_lengthmax_target_length 定义值,它们设置了评论和标题可以达到的最大长度上限。由于评论正文通常比标题大得多,因此我们相应地调整了这些值。

使用 preprocess_function(),然后就可以使用我们在本课程中广泛使用过的方便的 Dataset.map() 函数对整个语料库进行标记化。

tokenized_datasets = books_dataset.map(preprocess_function, batched=True)

现在语料库已经过预处理,让我们看看一些通常用于摘要的指标。正如我们将看到的,在衡量机器生成文本的质量时,没有万能的方法。

💡 您可能已经注意到,我们在上面的 Dataset.map() 函数中使用了 batched=True。这将示例编码成 1000 个批次(默认值),并允许您利用 🤗 Transformers 中快速标记器的多线程功能。在可能的情况下,尝试使用 batched=True 以充分利用您的预处理!

文本摘要指标

与我们在本课程中介绍的大多数其他任务相比,衡量文本生成任务(如摘要或翻译)的性能并不那么简单。例如,给定一个评论“我非常喜欢读饥饿游戏”,有多个有效的摘要,例如“我喜欢饥饿游戏”或“饥饿游戏是一本很棒的书”。显然,在生成的摘要和标签之间应用某种形式的完全匹配不是一个好的解决方案——即使是人类在这种指标下也会表现不佳,因为我们每个人都有自己的写作风格。

对于摘要,最常用的指标之一是ROUGE 分数(摘录评估的召回导向研究的缩写)。该指标的基本思想是将生成的摘要与一组通常由人类创建的参考摘要进行比较。为了更精确,假设我们要比较以下两个摘要

generated_summary = "I absolutely loved reading the Hunger Games"
reference_summary = "I loved reading the Hunger Games"

比较它们的一种方法是计算重叠单词的数量,在本例中为 6 个。但是,这有点粗略,因此 ROUGE 基于计算重叠的精确率召回率分数。

🙋 如果您第一次听说精确率和召回率,请不要担心——我们将一起浏览一些明确的示例,以使其变得清晰。这些指标通常出现在分类任务中,因此,如果您想了解在该上下文中如何定义精确率和召回率,我们建议您查看 scikit-learn指南

对于 ROUGE,召回率衡量的是生成的摘要捕获了多少参考摘要。如果我们只是比较单词,则可以根据以下公式计算召回率:Recall=NumberofoverlappingwordsTotalnumberofwordsinreferencesummary \mathrm{Recall} = \frac{\mathrm{Number\,of\,overlapping\, words}}{\mathrm{Total\, number\, of\, words\, in\, reference\, summary}}

对于我们上面简单的例子,这个公式给出了完美的召回率 6/6 = 1;也就是说,参考摘要中的所有单词都由模型生成。这听起来很棒,但想象一下,如果我们生成的摘要是“我真的很喜欢整晚阅读饥饿游戏”。这也会有完美的召回率,但可以说是一个更糟糕的摘要,因为它冗长。为了处理这些情况,我们还计算了精确率,在 ROUGE 上下文中,精确率衡量了生成摘要中相关部分的多少。Precision=NumberofoverlappingwordsTotalnumberofwordsingeneratedsummary \mathrm{Precision} = \frac{\mathrm{Number\,of\,overlapping\, words}}{\mathrm{Total\, number\, of\, words\, in\, generated\, summary}}

将此应用于我们的冗长摘要,得到精确率为 6/10 = 0.6,这比我们较短摘要获得的 6/7 = 0.86 的精确率要差得多。在实践中,通常会计算精确率和召回率,然后报告 F1 分数(精确率和召回率的调和平均数)。我们可以在 🤗 Datasets 中轻松做到这一点,首先安装 rouge_score

!pip install rouge_score

然后加载 ROUGE 指标,如下所示

import evaluate

rouge_score = evaluate.load("rouge")

然后,我们可以使用 rouge_score.compute() 函数一次计算所有指标

scores = rouge_score.compute(
    predictions=[generated_summary], references=[reference_summary]
)
scores
{'rouge1': AggregateScore(low=Score(precision=0.86, recall=1.0, fmeasure=0.92), mid=Score(precision=0.86, recall=1.0, fmeasure=0.92), high=Score(precision=0.86, recall=1.0, fmeasure=0.92)),
 'rouge2': AggregateScore(low=Score(precision=0.67, recall=0.8, fmeasure=0.73), mid=Score(precision=0.67, recall=0.8, fmeasure=0.73), high=Score(precision=0.67, recall=0.8, fmeasure=0.73)),
 'rougeL': AggregateScore(low=Score(precision=0.86, recall=1.0, fmeasure=0.92), mid=Score(precision=0.86, recall=1.0, fmeasure=0.92), high=Score(precision=0.86, recall=1.0, fmeasure=0.92)),
 'rougeLsum': AggregateScore(low=Score(precision=0.86, recall=1.0, fmeasure=0.92), mid=Score(precision=0.86, recall=1.0, fmeasure=0.92), high=Score(precision=0.86, recall=1.0, fmeasure=0.92))}

哇,输出中有很多信息——它们都意味着什么?首先,🤗 Datasets 实际上计算了精确率、召回率和 F1 分数的置信区间;这些是您在此处看到的 lowmidhigh 属性。此外,🤗 Datasets 计算了各种 ROUGE 分数,这些分数基于比较生成的摘要和参考摘要时不同类型的文本粒度。rouge1 变体是单字词的重叠——这只是说单词的重叠的一种花哨说法,并且正是我们上面讨论过的指标。为了验证这一点,让我们提取分数的 mid

scores["rouge1"].mid
Score(precision=0.86, recall=1.0, fmeasure=0.92)

太好了,精确率和召回率数字匹配上了!现在那些其他 ROUGE 分数呢?rouge2 衡量二字词之间的重叠(想想单词对的重叠),而 rougeLrougeLsum 通过查找生成摘要和参考摘要中最长的公共子字符串来衡量单词的最长匹配序列。rougeLsum 中的“sum”指的是此指标是在整个摘要上计算的,而 rougeL 是作为单个句子上的平均值计算的。

✏️ 试一试!创建您自己的生成摘要和参考摘要示例,并查看结果 ROUGE 分数是否与根据精确率和召回率公式进行的手动计算一致。为了获得额外分数,将文本拆分为二字词,并比较 rouge2 指标的精确率和召回率。

我们将使用这些 ROUGE 分数来跟踪模型的性能,但在这样做之前,让我们做一些每个优秀的 NLP 从业人员都应该做的事情:创建一个强大而简单的基线!

创建强大的基线

文本摘要的一个常见基线是简单地获取文章的前三句话,通常称为lead-3基线。我们可以使用句号来跟踪句子边界,但这在像“U.S.”或“U.N.”这样的首字母缩略词上会失败——因此,我们将使用nltk库,其中包含一个更好的算法来处理这些情况。您可以使用pip安装软件包,如下所示

!pip install nltk

然后下载标点符号规则

import nltk

nltk.download("punkt")

接下来,我们从nltk导入句子分词器,并创建一个简单的函数来提取评论中的前三句话。文本摘要的惯例是用换行符分隔每个摘要,所以让我们也包含它并在训练示例上进行测试

from nltk.tokenize import sent_tokenize


def three_sentence_summary(text):
    return "\n".join(sent_tokenize(text)[:3])


print(three_sentence_summary(books_dataset["train"][1]["review_body"]))
'I grew up reading Koontz, and years ago, I stopped,convinced i had "outgrown" him.'
'Still,when a friend was looking for something suspenseful too read, I suggested Koontz.'
'She found Strangers.'

这似乎有效,因此让我们现在实现一个函数,该函数从数据集中提取这些“摘要”,并计算基线的 ROUGE 分数

def evaluate_baseline(dataset, metric):
    summaries = [three_sentence_summary(text) for text in dataset["review_body"]]
    return metric.compute(predictions=summaries, references=dataset["review_title"])

然后,我们可以使用此函数计算验证集上的 ROUGE 分数,并使用 Pandas 对其进行美化

import pandas as pd

score = evaluate_baseline(books_dataset["validation"], rouge_score)
rouge_names = ["rouge1", "rouge2", "rougeL", "rougeLsum"]
rouge_dict = dict((rn, round(score[rn].mid.fmeasure * 100, 2)) for rn in rouge_names)
rouge_dict
{'rouge1': 16.74, 'rouge2': 8.83, 'rougeL': 15.6, 'rougeLsum': 15.96}

我们可以看到rouge2分数明显低于其他分数;这可能是因为评论标题通常简洁,因此 lead-3 基线过于冗长。既然我们有一个良好的基线可以借鉴,那么让我们将注意力转向微调 mT5!

使用 Trainer API 微调 mT5

为摘要微调模型与我们在本章中介绍的其他任务非常相似。我们需要做的第一件事是从mt5-small检查点加载预训练模型。由于摘要是序列到序列的任务,因此我们可以使用AutoModelForSeq2SeqLM类加载模型,该类将自动下载和缓存权重

from transformers import AutoModelForSeq2SeqLM

model = AutoModelForSeq2SeqLM.from_pretrained(model_checkpoint)

💡 如果你想知道为什么没有看到关于在下游任务上微调模型的任何警告,那是因为对于序列到序列的任务,我们保留了网络的所有权重。将其与我们在第 3 章中的文本分类模型进行比较,在该模型中,预训练模型的头被替换为一个随机初始化的网络。

接下来我们需要做的就是登录到 Hugging Face Hub。如果你在笔记本中运行此代码,可以使用以下实用程序函数

from huggingface_hub import notebook_login

notebook_login()

它将显示一个窗口小部件,您可以在其中输入您的凭据。或者,您可以在终端中运行此命令并在那里登录

huggingface-cli login

我们需要生成摘要以便在训练期间计算 ROUGE 分数。幸运的是,🤗 Transformers 提供了专用的 Seq2SeqTrainingArgumentsSeq2SeqTrainer 类,它们可以自动为我们完成此操作!为了了解其工作原理,让我们首先定义实验的超参数和其他参数

from transformers import Seq2SeqTrainingArguments

batch_size = 8
num_train_epochs = 8
# Show the training loss with every epoch
logging_steps = len(tokenized_datasets["train"]) // batch_size
model_name = model_checkpoint.split("/")[-1]

args = Seq2SeqTrainingArguments(
    output_dir=f"{model_name}-finetuned-amazon-en-es",
    evaluation_strategy="epoch",
    learning_rate=5.6e-5,
    per_device_train_batch_size=batch_size,
    per_device_eval_batch_size=batch_size,
    weight_decay=0.01,
    save_total_limit=3,
    num_train_epochs=num_train_epochs,
    predict_with_generate=True,
    logging_steps=logging_steps,
    push_to_hub=True,
)

这里,predict_with_generate 参数已设置为指示我们应该在评估期间生成摘要,以便我们可以计算每个 epoch 的 ROUGE 分数。如第 1 章所述,解码器通过逐个预测标记来执行推理,这由模型的 generate() 方法实现。将 predict_with_generate=True 设置为告诉 Seq2SeqTrainer 使用该方法进行评估。我们还调整了一些默认的超参数,例如学习率、epoch 数量和权重衰减,并将 save_total_limit 选项设置为仅在训练期间保存最多 3 个检查点——这是因为即使是 mT5 的“小型”版本也使用了大约 1GB 的硬盘空间,我们可以通过限制保存的副本数量来节省一些空间。

push_to_hub=True 参数将允许我们在训练后将模型推送到 Hub;您将在 output_dir 定义的位置的用户配置文件下找到存储库。请注意,您可以使用 hub_model_id 参数指定要推送到哪个存储库的名称(特别是,您必须使用此参数才能推送到组织)。例如,当我们将模型推送到huggingface-course 组织时,我们在 Seq2SeqTrainingArguments 中添加了 hub_model_id="huggingface-course/mt5-finetuned-amazon-en-es"

接下来我们需要做的是为训练器提供一个 compute_metrics() 函数,以便我们可以在训练期间评估我们的模型。对于摘要,这比简单地在模型的预测上调用 rouge_score.compute() 稍微复杂一些,因为我们需要解码输出和标签为文本,然后才能计算 ROUGE 分数。以下函数正是这样做的,并且还利用了 nltk 中的 sent_tokenize() 函数用换行符分隔摘要句子

import numpy as np


def compute_metrics(eval_pred):
    predictions, labels = eval_pred
    # Decode generated summaries into text
    decoded_preds = tokenizer.batch_decode(predictions, skip_special_tokens=True)
    # Replace -100 in the labels as we can't decode them
    labels = np.where(labels != -100, labels, tokenizer.pad_token_id)
    # Decode reference summaries into text
    decoded_labels = tokenizer.batch_decode(labels, skip_special_tokens=True)
    # ROUGE expects a newline after each sentence
    decoded_preds = ["\n".join(sent_tokenize(pred.strip())) for pred in decoded_preds]
    decoded_labels = ["\n".join(sent_tokenize(label.strip())) for label in decoded_labels]
    # Compute ROUGE scores
    result = rouge_score.compute(
        predictions=decoded_preds, references=decoded_labels, use_stemmer=True
    )
    # Extract the median scores
    result = {key: value.mid.fmeasure * 100 for key, value in result.items()}
    return {k: round(v, 4) for k, v in result.items()}

接下来,我们需要为我们的序列到序列任务定义一个数据整理器。由于 mT5 是一个编码器-解码器 Transformer 模型,因此准备批次的一个细微之处在于,在解码期间我们需要将标签向右移动一位。这是为了确保解码器只看到之前的真实标签,而不是当前或将来的标签,因为模型很容易记住这些标签。这类似于在因果语言建模等任务中如何将掩码自注意力应用于输入。

幸运的是,🤗 Transformers 提供了一个 DataCollatorForSeq2Seq 整理器,它将动态地为我们填充输入和标签。要实例化此整理器,我们只需要提供 tokenizermodel

from transformers import DataCollatorForSeq2Seq

data_collator = DataCollatorForSeq2Seq(tokenizer, model=model)

让我们看看当提供一小批示例时,此整理器会产生什么。首先,我们需要删除包含字符串的列,因为整理器将不知道如何填充这些元素

tokenized_datasets = tokenized_datasets.remove_columns(
    books_dataset["train"].column_names
)

由于整理器期望一个 dict 列表,其中每个 dict 代表数据集中的一个示例,因此在将其传递给数据整理器之前,我们还需要将数据整理成预期的格式

features = [tokenized_datasets["train"][i] for i in range(2)]
data_collator(features)
{'attention_mask': tensor([[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
         1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0],
        [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
         1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]]), 'input_ids': tensor([[  1494,    259,   8622,    390,    259,    262,   2316,   3435,    955,
            772,    281,    772,   1617,    263,    305,  14701,    260,   1385,
           3031,    259,  24146,    332,   1037,    259,  43906,    305,    336,
            260,      1,      0,      0,      0,      0,      0,      0],
        [   259,  27531,  13483,    259,   7505,    260, 112240,  15192,    305,
          53198,    276,    259,  74060,    263,    260,    459,  25640,    776,
           2119,    336,    259,   2220,    259,  18896,    288,   4906,    288,
           1037,   3931,    260,   7083, 101476,   1143,    260,      1]]), 'labels': tensor([[ 7483,   259,  2364, 15695,     1,  -100],
        [  259, 27531, 13483,   259,  7505,     1]]), 'decoder_input_ids': tensor([[    0,  7483,   259,  2364, 15695,     1],
        [    0,   259, 27531, 13483,   259,  7505]])}

这里需要注意的主要事项是,第一个示例比第二个示例长,因此第二个示例的 input_idsattention_mask 已在右侧用 [PAD] 标记(其 ID 为 0)进行了填充。类似地,我们可以看到 labels 已用 -100 填充,以确保损失函数忽略填充标记。最后,我们可以看到一个新的 decoder_input_ids,它通过在第一个条目中插入 [PAD] 标记将标签向右移动了。

我们终于拥有了训练所需的所有成分!现在我们只需要使用标准参数实例化训练器

from transformers import Seq2SeqTrainer

trainer = Seq2SeqTrainer(
    model,
    args,
    train_dataset=tokenized_datasets["train"],
    eval_dataset=tokenized_datasets["validation"],
    data_collator=data_collator,
    tokenizer=tokenizer,
    compute_metrics=compute_metrics,
)

并启动我们的训练运行

trainer.train()

在训练期间,您应该会看到训练损失随着每个 epoch 而下降,ROUGE 分数随着每个 epoch 而增加。训练完成后,您可以通过运行 Trainer.evaluate() 查看最终的 ROUGE 分数

trainer.evaluate()
{'eval_loss': 3.028524398803711,
 'eval_rouge1': 16.9728,
 'eval_rouge2': 8.2969,
 'eval_rougeL': 16.8366,
 'eval_rougeLsum': 16.851,
 'eval_gen_len': 10.1597,
 'eval_runtime': 6.1054,
 'eval_samples_per_second': 38.982,
 'eval_steps_per_second': 4.914}

从分数中我们可以看出,我们的模型轻松地超越了我们的前 3 个基线——不错!最后要做的是将模型权重推送到 Hub,如下所示

trainer.push_to_hub(commit_message="Training complete", tags="summarization")
'https://huggingface.co/huggingface-course/mt5-finetuned-amazon-en-es/commit/aa0536b829b28e73e1e4b94b8a5aacec420d40e0'

这将保存检查点和配置文件到 output_dir,然后将所有文件上传到 Hub。通过指定 tags 参数,我们还可以确保 Hub 上的小部件将是摘要管道的窗口小部件,而不是与 mT5 架构关联的默认文本生成窗口小部件(有关模型标签的更多信息,请参阅🤗 Hub 文档)。trainer.push_to_hub() 的输出是 Git 提交哈希的 URL,因此您可以轻松查看对模型存储库所做的更改!

为了总结本节,让我们看看如何使用 🤗 Accelerate 提供的低级功能来微调 mT5。

使用 🤗 Accelerate 微调 mT5

使用 🤗 Accelerate 微调我们的模型与我们在第 3 章中遇到的文本分类示例非常相似。主要区别在于需要在训练期间显式生成我们的摘要并定义我们如何计算 ROUGE 分数(回想一下,Seq2SeqTrainer 为我们处理了生成)。让我们看看如何在 🤗 Accelerate 中实现这两个要求!

准备所有训练内容

首先我们需要为每个拆分创建一个 DataLoader。由于 PyTorch 数据加载器期望张量的批次,因此我们需要在我们的数据集中将格式设置为 "torch"

tokenized_datasets.set_format("torch")

现在我们已经获得了仅包含张量的数据集,接下来要做的就是再次实例化 DataCollatorForSeq2Seq。为此,我们需要提供一个新的模型版本,所以让我们再次从我们的缓存中加载它

model = AutoModelForSeq2SeqLM.from_pretrained(model_checkpoint)

然后我们可以实例化数据整理器并使用它来定义我们的数据加载器

from torch.utils.data import DataLoader

batch_size = 8
train_dataloader = DataLoader(
    tokenized_datasets["train"],
    shuffle=True,
    collate_fn=data_collator,
    batch_size=batch_size,
)
eval_dataloader = DataLoader(
    tokenized_datasets["validation"], collate_fn=data_collator, batch_size=batch_size
)

接下来要做的就是定义我们想要使用的优化器。与我们其他示例一样,我们将使用 AdamW,它适用于大多数问题

from torch.optim import AdamW

optimizer = AdamW(model.parameters(), lr=2e-5)

最后,我们将模型、优化器和数据加载器馈送到 accelerator.prepare() 方法

from accelerate import Accelerator

accelerator = Accelerator()
model, optimizer, train_dataloader, eval_dataloader = accelerator.prepare(
    model, optimizer, train_dataloader, eval_dataloader
)

🚨 如果你在 TPU 上训练,你需要将上面所有代码移动到一个专用的训练函数中。有关更多详细信息,请参阅第 3 章

现在我们已经准备好了我们的对象,还有三件事要做

  • 定义学习率调度。
  • 实现一个函数来后处理用于评估的摘要。
  • 在 Hub 上创建一个存储库,我们可以将模型推送到该存储库。

对于学习率调度,我们将使用前面各节中的标准线性调度

from transformers import get_scheduler

num_train_epochs = 10
num_update_steps_per_epoch = len(train_dataloader)
num_training_steps = num_train_epochs * num_update_steps_per_epoch

lr_scheduler = get_scheduler(
    "linear",
    optimizer=optimizer,
    num_warmup_steps=0,
    num_training_steps=num_training_steps,
)

对于后处理,我们需要一个函数将生成的摘要拆分为用换行符分隔的句子。这是 ROUGE 指标期望的格式,我们可以使用以下代码片段实现此目的

def postprocess_text(preds, labels):
    preds = [pred.strip() for pred in preds]
    labels = [label.strip() for label in labels]

    # ROUGE expects a newline after each sentence
    preds = ["\n".join(nltk.sent_tokenize(pred)) for pred in preds]
    labels = ["\n".join(nltk.sent_tokenize(label)) for label in labels]

    return preds, labels

如果你还记得我们如何定义 Seq2SeqTrainercompute_metrics() 函数,那么这应该看起来很熟悉。

最后,我们需要在 Hugging Face Hub 上创建一个模型存储库。为此,我们可以使用恰如其分的 🤗 Hub 库。我们只需要为我们的存储库定义一个名称,库有一个实用程序函数可以将存储库 ID 与用户个人资料组合起来

from huggingface_hub import get_full_repo_name

model_name = "test-bert-finetuned-squad-accelerate"
repo_name = get_full_repo_name(model_name)
repo_name
'lewtun/mt5-finetuned-amazon-en-es-accelerate'

现在我们可以使用此存储库名称将本地版本克隆到我们的结果目录,该目录将存储训练工件

from huggingface_hub import Repository

output_dir = "results-mt5-finetuned-squad-accelerate"
repo = Repository(output_dir, clone_from=repo_name)

这将允许我们通过在训练期间调用 repo.push_to_hub() 方法将工件推回 Hub!现在让我们通过编写训练循环来结束我们的分析。

训练循环

摘要的训练循环与我们遇到的其他 🤗 Accelerate 示例非常相似,大致分为四个主要步骤

  1. 通过迭代每个 epoch 中 train_dataloader 中的所有示例来训练模型。
  2. 在每个 epoch 结束时生成模型摘要,方法是首先生成标记,然后将它们(以及参考摘要)解码为文本。
  3. 使用我们之前看到的相同技术计算 ROUGE 分数。
  4. 保存检查点并将所有内容推送到 Hub。在这里,我们依赖于 Repository 对象的巧妙的 blocking=False 参数,以便我们可以异步地按 epoch 推送检查点。这使我们能够继续训练,而不必等待与 GB 大小模型相关的速度较慢的上传!

这些步骤可以在以下代码块中看到

from tqdm.auto import tqdm
import torch
import numpy as np

progress_bar = tqdm(range(num_training_steps))

for epoch in range(num_train_epochs):
    # Training
    model.train()
    for step, batch in enumerate(train_dataloader):
        outputs = model(**batch)
        loss = outputs.loss
        accelerator.backward(loss)

        optimizer.step()
        lr_scheduler.step()
        optimizer.zero_grad()
        progress_bar.update(1)

    # Evaluation
    model.eval()
    for step, batch in enumerate(eval_dataloader):
        with torch.no_grad():
            generated_tokens = accelerator.unwrap_model(model).generate(
                batch["input_ids"],
                attention_mask=batch["attention_mask"],
            )

            generated_tokens = accelerator.pad_across_processes(
                generated_tokens, dim=1, pad_index=tokenizer.pad_token_id
            )
            labels = batch["labels"]

            # If we did not pad to max length, we need to pad the labels too
            labels = accelerator.pad_across_processes(
                batch["labels"], dim=1, pad_index=tokenizer.pad_token_id
            )

            generated_tokens = accelerator.gather(generated_tokens).cpu().numpy()
            labels = accelerator.gather(labels).cpu().numpy()

            # Replace -100 in the labels as we can't decode them
            labels = np.where(labels != -100, labels, tokenizer.pad_token_id)
            if isinstance(generated_tokens, tuple):
                generated_tokens = generated_tokens[0]
            decoded_preds = tokenizer.batch_decode(
                generated_tokens, skip_special_tokens=True
            )
            decoded_labels = tokenizer.batch_decode(labels, skip_special_tokens=True)

            decoded_preds, decoded_labels = postprocess_text(
                decoded_preds, decoded_labels
            )

            rouge_score.add_batch(predictions=decoded_preds, references=decoded_labels)

    # Compute metrics
    result = rouge_score.compute()
    # Extract the median ROUGE scores
    result = {key: value.mid.fmeasure * 100 for key, value in result.items()}
    result = {k: round(v, 4) for k, v in result.items()}
    print(f"Epoch {epoch}:", result)

    # Save and upload
    accelerator.wait_for_everyone()
    unwrapped_model = accelerator.unwrap_model(model)
    unwrapped_model.save_pretrained(output_dir, save_function=accelerator.save)
    if accelerator.is_main_process:
        tokenizer.save_pretrained(output_dir)
        repo.push_to_hub(
            commit_message=f"Training in progress epoch {epoch}", blocking=False
        )
Epoch 0: {'rouge1': 5.6351, 'rouge2': 1.1625, 'rougeL': 5.4866, 'rougeLsum': 5.5005}
Epoch 1: {'rouge1': 9.8646, 'rouge2': 3.4106, 'rougeL': 9.9439, 'rougeLsum': 9.9306}
Epoch 2: {'rouge1': 11.0872, 'rouge2': 3.3273, 'rougeL': 11.0508, 'rougeLsum': 10.9468}
Epoch 3: {'rouge1': 11.8587, 'rouge2': 4.8167, 'rougeL': 11.7986, 'rougeLsum': 11.7518}
Epoch 4: {'rouge1': 12.9842, 'rouge2': 5.5887, 'rougeL': 12.7546, 'rougeLsum': 12.7029}
Epoch 5: {'rouge1': 13.4628, 'rouge2': 6.4598, 'rougeL': 13.312, 'rougeLsum': 13.2913}
Epoch 6: {'rouge1': 12.9131, 'rouge2': 5.8914, 'rougeL': 12.6896, 'rougeLsum': 12.5701}
Epoch 7: {'rouge1': 13.3079, 'rouge2': 6.2994, 'rougeL': 13.1536, 'rougeLsum': 13.1194}
Epoch 8: {'rouge1': 13.96, 'rouge2': 6.5998, 'rougeL': 13.9123, 'rougeLsum': 13.7744}
Epoch 9: {'rouge1': 14.1192, 'rouge2': 7.0059, 'rougeL': 14.1172, 'rougeLsum': 13.9509}

就是这样!运行此代码后,您将获得一个模型和结果,它们与我们使用 Trainer 获得的结果非常相似。

使用您微调的模型

将模型推送到 Hub 后,您可以通过推理小部件或使用pipeline对象来使用它,如下所示

from transformers import pipeline

hub_model_id = "huggingface-course/mt5-small-finetuned-amazon-en-es"
summarizer = pipeline("summarization", model=hub_model_id)

我们可以将测试集(模型未见过)中的一些示例提供给我们的管道,以了解摘要的质量。首先,让我们实现一个简单的函数来显示评论、标题和生成的摘要

def print_summary(idx):
    review = books_dataset["test"][idx]["review_body"]
    title = books_dataset["test"][idx]["review_title"]
    summary = summarizer(books_dataset["test"][idx]["review_body"])[0]["summary_text"]
    print(f"'>>> Review: {review}'")
    print(f"\n'>>> Title: {title}'")
    print(f"\n'>>> Summary: {summary}'")

让我们看看我们得到的英语示例之一

print_summary(100)
'>>> Review: Nothing special at all about this product... the book is too small and stiff and hard to write in. The huge sticker on the back doesn’t come off and looks super tacky. I would not purchase this again. I could have just bought a journal from the dollar store and it would be basically the same thing. It’s also really expensive for what it is.'

'>>> Title: Not impressed at all... buy something else'

'>>> Summary: Nothing special at all about this product'

这还不错!我们可以看到,我们的模型实际上已经能够通过用新词增强评论的部分来执行抽象摘要。也许我们模型最酷的一点是它是双语的,因此我们还可以生成西班牙语评论的摘要

print_summary(0)
'>>> Review: Es una trilogia que se hace muy facil de leer. Me ha gustado, no me esperaba el final para nada'

'>>> Title: Buena literatura para adolescentes'

'>>> Summary: Muy facil de leer'

该摘要翻译成英语为“非常易读”,我们可以看到在这种情况下它是直接从评论中提取的。尽管如此,这还是展示了mT5模型的多功能性,并让您体验了处理多语言语料库的感觉!

接下来,我们将注意力转向一项稍微复杂的任务:从头开始训练语言模型。