Transformers 文档

自动语音识别

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验

开始使用

自动语音识别

自动语音识别 (ASR) 将语音信号转换为文本,将音频输入序列映射到文本输出。Siri 和 Alexa 等虚拟助手使用 ASR 模型帮助用户日常使用,还有许多其他有用的面向用户的应用程序,例如实时字幕和会议期间的笔记记录。

本指南将向您展示如何

  1. Wav2Vec2 上对 MInDS-14 数据集进行微调,以将音频转录为文本。
  2. 使用您微调后的模型进行推理。

要查看与此任务兼容的所有架构和检查点,我们建议您查看 任务页面

在开始之前,请确保您已安装所有必要的库

pip install transformers datasets evaluate jiwer

我们鼓励您登录您的 Hugging Face 帐户,以便您可以上传模型并与社区共享。出现提示时,输入您的令牌以登录

>>> from huggingface_hub import notebook_login

>>> notebook_login()

加载 MInDS-14 数据集

首先,从 🤗 Datasets 库加载 MInDS-14 数据集的一个较小子集。 MInDS-14 这样,你就可以进行一些实验,并确保一切正常,然后再花费更多时间在完整数据集上进行训练。

>>> from datasets import load_dataset, Audio

>>> minds = load_dataset("PolyAI/minds14", name="en-US", split="train[:100]")

使用 ~Dataset.train_test_split 方法将数据集的 train 分割成训练集和测试集。

>>> minds = minds.train_test_split(test_size=0.2)

然后查看数据集。

>>> minds
DatasetDict({
    train: Dataset({
        features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
        num_rows: 16
    })
    test: Dataset({
        features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
        num_rows: 4
    })
})

虽然数据集包含许多有用的信息,例如 lang_idenglish_transcription,但本指南将重点关注 audiotranscription。使用 remove_columns 方法移除其他列。

>>> minds = minds.remove_columns(["english_transcription", "intent_class", "lang_id"])

再次查看示例。

>>> minds["train"][0]
{'audio': {'array': array([-0.00024414,  0.        ,  0.        , ...,  0.00024414,
          0.00024414,  0.00024414], dtype=float32),
  'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
  'sampling_rate': 8000},
 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}

有两个字段:

  • audio:需要调用以加载和重采样音频文件的语音信号的一维 array
  • transcription:目标文本。

预处理

下一步是加载 Wav2Vec2 处理器来处理音频信号。

>>> from transformers import AutoProcessor

>>> processor = AutoProcessor.from_pretrained("facebook/wav2vec2-base")

MInDS-14 数据集的采样率为 8000kHz(你可以在其 数据集卡片 中找到此信息),这意味着你需要将数据集重采样到 16000kHz 以使用预训练的 Wav2Vec2 模型。

>>> minds = minds.cast_column("audio", Audio(sampling_rate=16_000))
>>> minds["train"][0]
{'audio': {'array': array([-2.38064706e-04, -1.58618059e-04, -5.43987835e-06, ...,
          2.78103951e-04,  2.38446111e-04,  1.18740834e-04], dtype=float32),
  'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
  'sampling_rate': 16000},
 'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
 'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}

如上所示的 transcription 中,文本包含大小写字符的混合。Wav2Vec2 分词器仅在大写字符上进行训练,因此你需要确保文本与分词器的词汇表匹配。

>>> def uppercase(example):
...     return {"transcription": example["transcription"].upper()}


>>> minds = minds.map(uppercase)

现在创建一个预处理函数,该函数:

  1. 调用 audio 列以加载和重采样音频文件。
  2. 从音频文件中提取 input_values,并使用处理器对 transcription 列进行分词。
>>> def prepare_dataset(batch):
...     audio = batch["audio"]
...     batch = processor(audio["array"], sampling_rate=audio["sampling_rate"], text=batch["transcription"])
...     batch["input_length"] = len(batch["input_values"][0])
...     return batch

要将预处理函数应用于整个数据集,请使用 🤗 Datasets 的 map 函数。你可以通过使用 num_proc 参数增加进程数来加快 map 的速度。使用 remove_columns 方法移除不需要的列。

>>> encoded_minds = minds.map(prepare_dataset, remove_columns=minds.column_names["train"], num_proc=4)

🤗 Transformers 没有用于 ASR 的数据整理器,因此你需要调整 DataCollatorWithPadding 来创建一个示例批次。它还将动态地将你的文本和标签填充到其批次中最长元素的长度(而不是整个数据集),以便它们具有统一的长度。虽然可以通过在 tokenizer 函数中设置 padding=True 来填充文本,但动态填充效率更高。

与其他数据整理器不同,此特定数据整理器需要对 input_valueslabels 应用不同的填充方法。

>>> import torch

>>> from dataclasses import dataclass, field
>>> from typing import Any, Dict, List, Optional, Union


>>> @dataclass
... class DataCollatorCTCWithPadding:
...     processor: AutoProcessor
...     padding: Union[bool, str] = "longest"

...     def __call__(self, features: List[Dict[str, Union[List[int], torch.Tensor]]]) -> Dict[str, torch.Tensor]:
...         # split inputs and labels since they have to be of different lengths and need
...         # different padding methods
...         input_features = [{"input_values": feature["input_values"][0]} for feature in features]
...         label_features = [{"input_ids": feature["labels"]} for feature in features]

...         batch = self.processor.pad(input_features, padding=self.padding, return_tensors="pt")

...         labels_batch = self.processor.pad(labels=label_features, padding=self.padding, return_tensors="pt")

...         # replace padding with -100 to ignore loss correctly
...         labels = labels_batch["input_ids"].masked_fill(labels_batch.attention_mask.ne(1), -100)

...         batch["labels"] = labels

...         return batch

现在实例化你的 DataCollatorForCTCWithPadding

>>> data_collator = DataCollatorCTCWithPadding(processor=processor, padding="longest")

评估

在训练期间包含一个指标通常有助于评估模型的性能。你可以使用 🤗 Evaluate 库快速加载评估方法。对于此任务,加载 词错误率 (WER) 指标(请参阅 🤗 Evaluate 的 快速入门,了解有关如何加载和计算指标的更多信息)。

>>> import evaluate

>>> wer = evaluate.load("wer")

然后创建一个函数,将你的预测和标签传递给 compute 以计算 WER。

>>> import numpy as np


>>> def compute_metrics(pred):
...     pred_logits = pred.predictions
...     pred_ids = np.argmax(pred_logits, axis=-1)

...     pred.label_ids[pred.label_ids == -100] = processor.tokenizer.pad_token_id

...     pred_str = processor.batch_decode(pred_ids)
...     label_str = processor.batch_decode(pred.label_ids, group_tokens=False)

...     wer = wer.compute(predictions=pred_str, references=label_str)

...     return {"wer": wer}

你的 compute_metrics 函数现在已经准备好了,在设置训练时,你将返回到它。

训练

Pytorch
隐藏 Pytorch 内容

如果你不熟悉使用 Trainer 微调模型,请查看 此处 的基本教程!

你现在可以开始训练你的模型了!使用 AutoModelForCTC 加载 Wav2Vec2。使用 ctc_loss_reduction 参数指定要应用的归约。通常最好使用平均值而不是默认的求和。

>>> from transformers import AutoModelForCTC, TrainingArguments, Trainer

>>> model = AutoModelForCTC.from_pretrained(
...     "facebook/wav2vec2-base",
...     ctc_loss_reduction="mean",
...     pad_token_id=processor.tokenizer.pad_token_id,
... )

此时,只剩下三个步骤:

  1. TrainingArguments 中定义你的训练超参数。唯一必需的参数是 output_dir,它指定保存模型的位置。你将通过设置 push_to_hub=True 将此模型推送到 Hub(你需要登录 Hugging Face 才能上传你的模型)。在每个 epoch 结束时,Trainer 将评估 WER 并保存训练检查点。
  2. 将训练参数传递给 Trainer,以及模型、数据集、分词器、数据整理器和 compute_metrics 函数。
  3. 调用 train() 来微调你的模型。
>>> training_args = TrainingArguments(
...     output_dir="my_awesome_asr_mind_model",
...     per_device_train_batch_size=8,
...     gradient_accumulation_steps=2,
...     learning_rate=1e-5,
...     warmup_steps=500,
...     max_steps=2000,
...     gradient_checkpointing=True,
...     fp16=True,
...     group_by_length=True,
...     eval_strategy="steps",
...     per_device_eval_batch_size=8,
...     save_steps=1000,
...     eval_steps=1000,
...     logging_steps=25,
...     load_best_model_at_end=True,
...     metric_for_best_model="wer",
...     greater_is_better=False,
...     push_to_hub=True,
... )

>>> trainer = Trainer(
...     model=model,
...     args=training_args,
...     train_dataset=encoded_minds["train"],
...     eval_dataset=encoded_minds["test"],
...     tokenizer=processor,
...     data_collator=data_collator,
...     compute_metrics=compute_metrics,
... )

>>> trainer.train()

训练完成后,使用 push_to_hub() 方法将你的模型共享到 Hub,以便每个人都可以使用你的模型。

>>> trainer.push_to_hub()

有关如何针对自动语音识别微调模型的更深入示例,请查看这篇关于英语 ASR 的博文 文章 和这篇关于多语言 ASR 的博文 文章

推理

太好了,现在你已经微调了一个模型,你可以将其用于推理!

加载你想要运行推理的音频文件。如果需要,请记住将音频文件的采样率重采样以匹配模型的采样率!

>>> from datasets import load_dataset, Audio

>>> dataset = load_dataset("PolyAI/minds14", "en-US", split="train")
>>> dataset = dataset.cast_column("audio", Audio(sampling_rate=16000))
>>> sampling_rate = dataset.features["audio"].sampling_rate
>>> audio_file = dataset[0]["audio"]["path"]

尝试使用微调模型进行推理的最简单方法是在 pipeline() 中使用它。使用你的模型为自动语音识别实例化一个 pipeline,并将你的音频文件传递给它。

>>> from transformers import pipeline

>>> transcriber = pipeline("automatic-speech-recognition", model="stevhliu/my_awesome_asr_minds_model")
>>> transcriber(audio_file)
{'text': 'I WOUD LIKE O SET UP JOINT ACOUNT WTH Y PARTNER'}

转录效果不错,但还可以更好!尝试在更多示例上微调你的模型以获得更好的结果!

如果你愿意,也可以手动复制 pipeline 的结果。

Pytorch
隐藏 Pytorch 内容

加载一个处理器来预处理音频文件和转录,并将 input 作为 PyTorch 张量返回。

>>> from transformers import AutoProcessor

>>> processor = AutoProcessor.from_pretrained("stevhliu/my_awesome_asr_mind_model")
>>> inputs = processor(dataset[0]["audio"]["array"], sampling_rate=sampling_rate, return_tensors="pt")

将你的输入传递给模型并返回 logits。

>>> from transformers import AutoModelForCTC

>>> model = AutoModelForCTC.from_pretrained("stevhliu/my_awesome_asr_mind_model")
>>> with torch.no_grad():
...     logits = model(**inputs).logits

获取概率最高的预测 input_ids,并使用处理器将预测的 input_ids 解码回文本。

>>> import torch

>>> predicted_ids = torch.argmax(logits, dim=-1)
>>> transcription = processor.batch_decode(predicted_ids)
>>> transcription
['I WOUL LIKE O SET UP JOINT ACOUNT WTH Y PARTNER']
< > 在 GitHub 上更新