Transformers 文档
自动语音识别
并获取增强的文档体验
开始使用
自动语音识别
自动语音识别 (ASR) 将语音信号转换为文本,将音频输入序列映射到文本输出。像 Siri 和 Alexa 这样的虚拟助手每天都在使用 ASR 模型来帮助用户,还有许多其他有用的面向用户的应用程序,如实时字幕和会议期间的笔记记录。
本指南将向您展示如何
要查看与此任务兼容的所有架构和检查点,我们建议查看任务页面
在开始之前,请确保您已安装所有必要的库
pip install transformers datasets evaluate jiwer
我们鼓励您登录您的 Hugging Face 帐户,以便您可以上传并与社区分享您的模型。出现提示时,输入您的令牌以登录
>>> from huggingface_hub import notebook_login
>>> notebook_login()
加载 MInDS-14 数据集
首先从 🤗 Datasets 库加载 MInDS-14 数据集的一个较小子集。这将让您有机会进行实验,并确保一切正常,然后再花费更多时间在完整数据集上进行训练。
>>> from datasets import load_dataset, Audio
>>> minds = load_dataset("PolyAI/minds14", name="en-US", split="train[:100]")
使用 ~Dataset.train_test_split
方法将数据集的 train
拆分拆分为训练集和测试集
>>> minds = minds.train_test_split(test_size=0.2)
然后看看数据集
>>> minds
DatasetDict({
train: Dataset({
features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
num_rows: 16
})
test: Dataset({
features: ['path', 'audio', 'transcription', 'english_transcription', 'intent_class', 'lang_id'],
num_rows: 4
})
})
虽然数据集包含许多有用的信息,例如 lang_id
和 english_transcription
,但本指南侧重于 audio
和 transcription
。使用 remove_columns 方法删除其他列
>>> minds = minds.remove_columns(["english_transcription", "intent_class", "lang_id"])
再次查看示例
>>> minds["train"][0]
{'audio': {'array': array([-0.00024414, 0. , 0. , ..., 0.00024414,
0.00024414, 0.00024414], dtype=float32),
'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
'sampling_rate': 8000},
'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}
有两个字段
audio
:语音信号的 1 维array
,必须调用它才能加载和重新采样音频文件。transcription
:目标文本。
预处理
下一步是加载 Wav2Vec2 处理器来处理音频信号
>>> from transformers import AutoProcessor
>>> processor = AutoProcessor.from_pretrained("facebook/wav2vec2-base")
MInDS-14 数据集的采样率为 8000Hz(您可以在其数据集卡片中找到此信息),这意味着您需要将数据集重新采样到 16000Hz 才能使用预训练的 Wav2Vec2 模型
>>> minds = minds.cast_column("audio", Audio(sampling_rate=16_000))
>>> minds["train"][0]
{'audio': {'array': array([-2.38064706e-04, -1.58618059e-04, -5.43987835e-06, ...,
2.78103951e-04, 2.38446111e-04, 1.18740834e-04], dtype=float32),
'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
'sampling_rate': 16000},
'path': '/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-US~APP_ERROR/602ba9e2963e11ccd901cd4f.wav',
'transcription': "hi I'm trying to use the banking app on my phone and currently my checking and savings account balance is not refreshing"}
正如您在上面的 transcription
中看到的,文本包含大小写字符的混合。Wav2Vec2 tokenizer 仅在 大写字符 上训练,因此您需要确保文本与 tokenizer 的词汇表匹配
>>> def uppercase(example):
... return {"transcription": example["transcription"].upper()}
>>> minds = minds.map(uppercase)
现在创建一个预处理函数,该函数
- 调用
audio
列以加载和重新采样音频文件。 - 从音频文件中提取
input_values
,并使用处理器标记化transcription
列。
>>> def prepare_dataset(batch):
... audio = batch["audio"]
... batch = processor(audio["array"], sampling_rate=audio["sampling_rate"], text=batch["transcription"])
... batch["input_length"] = len(batch["input_values"][0])
... return batch
要将预处理函数应用于整个数据集,请使用 🤗 Datasets map 函数。您可以通过使用 num_proc
参数增加进程数来加速 map
。使用 remove_columns 方法删除您不需要的列
>>> encoded_minds = minds.map(prepare_dataset, remove_columns=minds.column_names["train"], num_proc=4)
🤗 Transformers 没有 ASR 的数据整理器,因此您需要调整 DataCollatorWithPadding 来创建一批示例。它还将动态填充您的文本和标签到其批次中最长元素的长度(而不是整个数据集),以便它们具有统一的长度。虽然可以通过设置 padding=True
在 tokenizer
函数中填充文本,但动态填充效率更高。
与其他数据整理器不同,此特定数据整理器需要对 input_values
和 labels
应用不同的填充方法
>>> import torch
>>> from dataclasses import dataclass, field
>>> from typing import Any, Dict, List, Optional, Union
>>> @dataclass
... class DataCollatorCTCWithPadding:
... processor: AutoProcessor
... padding: Union[bool, str] = "longest"
... def __call__(self, features: List[Dict[str, Union[List[int], torch.Tensor]]]) -> Dict[str, torch.Tensor]:
... # split inputs and labels since they have to be of different lengths and need
... # different padding methods
... input_features = [{"input_values": feature["input_values"][0]} for feature in features]
... label_features = [{"input_ids": feature["labels"]} for feature in features]
... batch = self.processor.pad(input_features, padding=self.padding, return_tensors="pt")
... labels_batch = self.processor.pad(labels=label_features, padding=self.padding, return_tensors="pt")
... # replace padding with -100 to ignore loss correctly
... labels = labels_batch["input_ids"].masked_fill(labels_batch.attention_mask.ne(1), -100)
... batch["labels"] = labels
... return batch
现在实例化您的 DataCollatorForCTCWithPadding
>>> data_collator = DataCollatorCTCWithPadding(processor=processor, padding="longest")
评估
在训练期间包含指标通常有助于评估模型的性能。您可以使用 🤗 Evaluate 库快速加载评估方法。对于此任务,加载 词错误率 (WER) 指标(请参阅 🤗 Evaluate 快速入门 以了解有关加载和计算指标的更多信息)
>>> import evaluate
>>> wer = evaluate.load("wer")
然后创建一个函数,将您的预测和标签传递给 compute
以计算 WER
>>> import numpy as np
>>> def compute_metrics(pred):
... pred_logits = pred.predictions
... pred_ids = np.argmax(pred_logits, axis=-1)
... pred.label_ids[pred.label_ids == -100] = processor.tokenizer.pad_token_id
... pred_str = processor.batch_decode(pred_ids)
... label_str = processor.batch_decode(pred.label_ids, group_tokens=False)
... wer = wer.compute(predictions=pred_str, references=label_str)
... return {"wer": wer}
您的 compute_metrics
函数现在已准备就绪,当您设置训练时,您将返回它。
训练
您现在可以开始训练您的模型了!使用 AutoModelForCTC 加载 Wav2Vec2。使用 ctc_loss_reduction
参数指定要应用的缩减。通常最好使用平均值而不是默认求和
>>> from transformers import AutoModelForCTC, TrainingArguments, Trainer
>>> model = AutoModelForCTC.from_pretrained(
... "facebook/wav2vec2-base",
... ctc_loss_reduction="mean",
... pad_token_id=processor.tokenizer.pad_token_id,
... )
此时,仅剩三个步骤
- 在 TrainingArguments 中定义您的训练超参数。唯一必需的参数是
output_dir
,它指定了保存模型的位置。您将通过设置push_to_hub=True
将此模型推送到 Hub(您需要登录 Hugging Face 才能上传您的模型)。在每个 epoch 结束时,Trainer 将评估 WER 并保存训练检查点。 - 将训练参数传递给 Trainer,以及模型、数据集、tokenizer、数据整理器和
compute_metrics
函数。 - 调用 train() 以微调您的模型。
>>> training_args = TrainingArguments(
... output_dir="my_awesome_asr_mind_model",
... per_device_train_batch_size=8,
... gradient_accumulation_steps=2,
... learning_rate=1e-5,
... warmup_steps=500,
... max_steps=2000,
... gradient_checkpointing=True,
... fp16=True,
... group_by_length=True,
... eval_strategy="steps",
... per_device_eval_batch_size=8,
... save_steps=1000,
... eval_steps=1000,
... logging_steps=25,
... load_best_model_at_end=True,
... metric_for_best_model="wer",
... greater_is_better=False,
... push_to_hub=True,
... )
>>> trainer = Trainer(
... model=model,
... args=training_args,
... train_dataset=encoded_minds["train"],
... eval_dataset=encoded_minds["test"],
... processing_class=processor,
... data_collator=data_collator,
... compute_metrics=compute_metrics,
... )
>>> trainer.train()
训练完成后,使用 push_to_hub() 方法将您的模型分享到 Hub,以便每个人都可以访问
>>> trainer.push_to_hub()
推理
太棒了,既然您已经微调了一个模型,您就可以使用它进行推理了!
加载您想要在其上运行推理的音频文件。如果需要,请记住重新采样音频文件的采样率以匹配模型的采样率!
>>> from datasets import load_dataset, Audio
>>> dataset = load_dataset("PolyAI/minds14", "en-US", split="train")
>>> dataset = dataset.cast_column("audio", Audio(sampling_rate=16000))
>>> sampling_rate = dataset.features["audio"].sampling_rate
>>> audio_file = dataset[0]["audio"]["path"]
尝试使用微调模型进行推理的最简单方法是在 pipeline() 中使用它。实例化一个用于自动语音识别的 pipeline
,其中包含您的模型,并将您的音频文件传递给它
>>> from transformers import pipeline
>>> transcriber = pipeline("automatic-speech-recognition", model="stevhliu/my_awesome_asr_minds_model")
>>> transcriber(audio_file)
{'text': 'I WOUD LIKE O SET UP JOINT ACOUNT WTH Y PARTNER'}
转录效果还不错,但可以更好!尝试在更多示例上微调您的模型以获得更好的结果!
如果您愿意,也可以手动复制 pipeline
的结果
加载处理器以预处理音频文件和转录,并将 input
作为 PyTorch 张量返回
>>> from transformers import AutoProcessor
>>> processor = AutoProcessor.from_pretrained("stevhliu/my_awesome_asr_mind_model")
>>> inputs = processor(dataset[0]["audio"]["array"], sampling_rate=sampling_rate, return_tensors="pt")
将您的输入传递给模型并返回 logits
>>> from transformers import AutoModelForCTC
>>> model = AutoModelForCTC.from_pretrained("stevhliu/my_awesome_asr_mind_model")
>>> with torch.no_grad():
... logits = model(**inputs).logits
获取具有最高概率的预测 input_ids
,并使用处理器将预测的 input_ids
解码回文本
>>> import torch
>>> predicted_ids = torch.argmax(logits, dim=-1)
>>> transcription = processor.batch_decode(predicted_ids)
>>> transcription
['I WOUL LIKE O SET UP JOINT ACOUNT WTH Y PARTNER']