音频课程文档

用 Gradio 构建一个演示

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

用 Gradio 构建一个演示

在音频分类的最后一部分中,我们将构建一个 Gradio 演示,以展示我们刚刚在 GTZAN 数据集上训练的音乐分类模型。首先要做的是使用 pipeline() 类加载微调后的检查点——这在预训练模型部分已经很熟悉了。你可以将 model_id 更改为你在 Hugging Face Hub 上微调模型的命名空间

from transformers import pipeline

model_id = "sanchit-gandhi/distilhubert-finetuned-gtzan"
pipe = pipeline("audio-classification", model=model_id)

其次,我们将定义一个函数,该函数接受音频输入的 filepath 并将其传递给管道。在这里,管道会自动处理音频文件的加载、将其重新采样到正确的采样率,并使用模型进行推理。我们将模型的预测 preds 格式化为一个字典对象,以便在输出中显示

def classify_audio(filepath):
    preds = pipe(filepath)
    outputs = {}
    for p in preds:
        outputs[p["label"]] = p["score"]
    return outputs

最后,我们使用刚刚定义的函数启动 Gradio 演示

import gradio as gr

demo = gr.Interface(
    fn=classify_audio, inputs=gr.Audio(type="filepath"), outputs=gr.outputs.Label()
)
demo.launch(debug=True)

这将启动一个 Gradio 演示,类似于 Hugging Face Space 上运行的那个。

< > 在 GitHub 上更新