音频课程文档
使用 Gradio 构建演示
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
使用 Gradio 构建演示
在音频分类的最后一部分,我们将构建一个 Gradio 演示来展示我们在 GTZAN 数据集上刚刚训练的音乐分类模型。 首先要做的是使用 pipeline()
类加载微调后的检查点 - 这与预训练模型部分非常相似。 你可以将 model_id
更改为你 Hugging Face Hub 上微调模型的命名空间
from transformers import pipeline
model_id = "sanchit-gandhi/distilhubert-finetuned-gtzan"
pipe = pipeline("audio-classification", model=model_id)
其次,我们将定义一个函数,该函数接受音频输入的filepath,并通过pipeline传递它。 在这里,pipeline 自动处理加载音频文件、将其重采样到正确的采样率以及使用模型运行推理。 我们获取模型对 preds 的预测,并将其格式化为字典对象以显示在输出上
def classify_audio(filepath):
preds = pipe(filepath)
outputs = {}
for p in preds:
outputs[p["label"]] = p["score"]
return outputs
最后,我们使用刚刚定义的函数启动 Gradio 演示
import gradio as gr
demo = gr.Interface(
fn=classify_audio, inputs=gr.Audio(type="filepath"), outputs=gr.outputs.Label()
)
demo.launch(debug=True)
这将启动一个类似于在 Hugging Face Space 上运行的 Gradio 演示
< > 在 GitHub 上更新