音频课程文档
动手练习
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
动手练习
现在是时候开始动手操作一些音频模型,并应用你目前所学的知识了。此练习是获得课程完成证书所需的四个动手练习之一。
以下是说明。在本单元中,我们演示了如何针对音乐分类在 marsyas/gtzan
数据集上微调 Hubert 模型。我们的示例达到了 83% 的准确率。你的任务是在此准确率指标上进行改进。
请随意在 🤗 Hub 上选择你认为适合音频分类的任何模型,并使用完全相同的数据集 marsyas/gtzan
来构建你自己的分类器。
你的目标是在此数据集上使用你的分类器达到 87% 的准确率。你可以选择完全相同的模型,并调整训练超参数,或者选择完全不同的模型 - 这取决于你!
为了使你的结果计入你的证书,请不要忘记像本单元中所示的那样,在训练结束时使用以下 **kwargs
将你的模型推送到 Hub
kwargs = {
"dataset_tags": "marsyas/gtzan",
"dataset": "GTZAN",
"model_name": f"{model_name}-finetuned-gtzan",
"finetuned_from": model_id,
"tasks": "audio-classification",
}
trainer.push_to_hub(**kwargs)
以下是一些额外的资源,你可能会在完成此练习时发现它们很有用
欢迎构建你的模型的演示,并在 Discord 上分享!如果你有任何问题,请在 #audio-study-group 频道中发布。
< > 更新 在 GitHub 上