Hub 文档
下载模型
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
下载模型
集成库
如果 Hub 上的模型与支持的库相关联,只需几行代码即可加载模型。有关访问模型的信息,您可以单击模型页面上的“在*库*中使用”按钮,以查看如何操作。例如,distilbert/distilgpt2
显示了如何使用下面的 🤗 Transformers。




使用 Hugging Face 客户端库
您可以使用 huggingface_hub
库来创建、删除、更新和检索存储库中的信息。例如,要从命令行下载 HuggingFaceH4/zephyr-7b-beta
模型,请运行:
hf download HuggingFaceH4/zephyr-7b-beta
有关更多信息,请参阅 CLI 下载文档。
您还可以将其集成到您自己的库中。例如,您可以用几行代码快速加载 Scikit-learn 模型。
from huggingface_hub import hf_hub_download
import joblib
REPO_ID = "YOUR_REPO_ID"
FILENAME = "sklearn_model.joblib"
model = joblib.load(
hf_hub_download(repo_id=REPO_ID, filename=FILENAME)
)
使用 Git
由于模型中心上的所有模型都是 Git 存储库,您可以通过运行以下命令在本地克隆模型:
git lfs install
git clone git@hf.co:<MODEL ID> # example: git clone git@hf.co:bigscience/bloom
如果您对特定模型存储库具有写入权限,您也将能够提交和推送对模型的修订。
将您的 SSH 公钥添加到您的用户设置以推送更改和/或访问私有存储库。
更快的下载速度
如果您在具有高带宽的机器上运行,您可以使用 hf_transfer
提高下载速度,这是一个基于 Rust 的库,旨在加速与 Hub 的文件传输。
pip install "huggingface_hub[hf_transfer]"
HF_HUB_ENABLE_HF_TRANSFER=1 hf download ...
hf_transfer
是一个高级用户工具!它经过测试且已投入生产,但它缺少用户友好的功能,如高级错误处理或代理。有关更多详细信息,请参阅此指南。