音频课程文档
动手练习
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
动手练习
现在是时候亲自体验一些音频模型,并应用您目前所学到的知识了。本练习是获得课程结业证书所需的四项动手练习之一。
以下是说明。在本单元中,我们演示了如何对 marsyas/gtzan
数据集上的 Hubert 模型进行微调,以用于音乐分类。我们的示例达到了 83% 的准确率。您的任务是提高此准确率指标。
您可以随意选择 🤗 Hub 上您认为适合音频分类的任何模型,并使用完全相同的数据集 marsyas/gtzan
来构建您自己的分类器。
您的目标是使用您的分类器在此数据集上达到 87% 的准确率。您可以选择完全相同的模型,并调整训练超参数,或者选择一个完全不同的模型——这由您决定!
为了使您的结果计入证书,请不要忘记在训练结束时按照本单元所示,使用以下 **kwargs
将您的模型推送到 Hub:
kwargs = {
"dataset_tags": "marsyas/gtzan",
"dataset": "GTZAN",
"model_name": f"{model_name}-finetuned-gtzan",
"finetuned_from": model_id,
"tasks": "audio-classification",
}
trainer.push_to_hub(**kwargs)
以下是您在进行此练习时可能会觉得有帮助的一些额外资源:
欢迎构建您的模型演示,并在 Discord 上分享!如果您有问题,请在 #audio-study-group 频道中提出。
< > 在 GitHub 上更新