Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

下载模型

集成库

如果 Hub 上的模型与支持的库相关联,只需几行代码即可加载模型。有关访问模型的信息,您可以单击模型页面上的“在*库*中使用”按钮,以查看如何操作。例如,distilbert/distilgpt2 显示了如何使用下面的 🤗 Transformers。

使用 Hugging Face 客户端库

您可以使用 huggingface_hub 库来创建、删除、更新和检索存储库中的信息。例如,要从命令行下载 HuggingFaceH4/zephyr-7b-beta 模型,请运行:

hf download HuggingFaceH4/zephyr-7b-beta

有关更多信息,请参阅 CLI 下载文档

您还可以将其集成到您自己的库中。例如,您可以用几行代码快速加载 Scikit-learn 模型。

from huggingface_hub import hf_hub_download
import joblib

REPO_ID = "YOUR_REPO_ID"
FILENAME = "sklearn_model.joblib"

model = joblib.load(
    hf_hub_download(repo_id=REPO_ID, filename=FILENAME)
)

使用 Git

由于模型中心上的所有模型都是 Git 存储库,您可以通过运行以下命令在本地克隆模型:

git lfs install
git clone git@hf.co:<MODEL ID> # example: git clone git@hf.co:bigscience/bloom

如果您对特定模型存储库具有写入权限,您也将能够提交和推送对模型的修订。

将您的 SSH 公钥添加到您的用户设置以推送更改和/或访问私有存储库。

更快的下载速度

如果您在具有高带宽的机器上运行,您可以使用 hf_transfer 提高下载速度,这是一个基于 Rust 的库,旨在加速与 Hub 的文件传输。

pip install "huggingface_hub[hf_transfer]"
HF_HUB_ENABLE_HF_TRANSFER=1 hf download ...

hf_transfer 是一个高级用户工具!它经过测试且已投入生产,但它缺少用户友好的功能,如高级错误处理或代理。有关更多详细信息,请参阅此指南

< > 在 GitHub 上更新