音频课程文档

动手练习

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

动手练习

现在是时候开始动手操作一些音频模型,并应用你目前所学的知识了。此练习是获得课程完成证书所需的四个动手练习之一。

以下是说明。在本单元中,我们演示了如何针对音乐分类在 marsyas/gtzan 数据集上微调 Hubert 模型。我们的示例达到了 83% 的准确率。你的任务是在此准确率指标上进行改进。

请随意在 🤗 Hub 上选择你认为适合音频分类的任何模型,并使用完全相同的数据集 marsyas/gtzan 来构建你自己的分类器。

你的目标是在此数据集上使用你的分类器达到 87% 的准确率。你可以选择完全相同的模型,并调整训练超参数,或者选择完全不同的模型 - 这取决于你!

为了使你的结果计入你的证书,请不要忘记像本单元中所示的那样,在训练结束时使用以下 **kwargs 将你的模型推送到 Hub

kwargs = {
    "dataset_tags": "marsyas/gtzan",
    "dataset": "GTZAN",
    "model_name": f"{model_name}-finetuned-gtzan",
    "finetuned_from": model_id,
    "tasks": "audio-classification",
}

trainer.push_to_hub(**kwargs)

以下是一些额外的资源,你可能会在完成此练习时发现它们很有用

欢迎构建你的模型的演示,并在 Discord 上分享!如果你有任何问题,请在 #audio-study-group 频道中发布。

< > 更新 在 GitHub 上