安装
在开始之前,您需要通过安装相应的软件包来设置您的环境。
huggingface_hub
在 Python 3.8+ 上经过测试。
使用 pip 安装
强烈建议您在 虚拟环境 中安装 huggingface_hub
。如果您不熟悉 Python 虚拟环境,请查看此 指南。虚拟环境可以更轻松地管理不同的项目,并避免依赖项之间的兼容性问题。
首先在您的项目目录中创建一个虚拟环境
python -m venv .env
激活虚拟环境。在 Linux 和 macOS 上
source .env/bin/activate
在 Windows 上激活虚拟环境
.env/Scripts/activate
现在您可以从 PyPi 仓库 安装 huggingface_hub
了
pip install --upgrade huggingface_hub
完成后,检查安装 是否正常工作。
安装可选依赖项
huggingface_hub
的一些依赖项是 可选的,因为它们不是运行 huggingface_hub
的核心功能所必需的。但是,如果未安装可选依赖项,则 huggingface_hub
的某些功能可能不可用。
您可以通过 pip
安装可选依赖项
# Install dependencies for tensorflow-specific features
# /!\ Warning: this is not equivalent to `pip install tensorflow`
pip install 'huggingface_hub[tensorflow]'
# Install dependencies for both torch-specific and CLI-specific features.
pip install 'huggingface_hub[cli,torch]'
以下是 huggingface_hub
中可选依赖项的列表
cli
:为huggingface_hub
提供更便捷的 CLI 界面。fastai
、torch
、tensorflow
:运行框架特定功能的依赖项。dev
:贡献到库的依赖项。包括testing
(运行测试)、typing
(运行类型检查器)和quality
(运行 linter)。
从源代码安装
在某些情况下,直接从源代码安装 huggingface_hub
会很有趣。这使您可以使用最前沿的 main
版本,而不是最新的稳定版本。main
版本对于保持最新开发进展非常有用,例如,如果在最后一个正式版本发布后修复了一个错误,但尚未发布新版本。
但是,这意味着 main
版本可能并不总是稳定的。我们努力使 main
版本保持可运行,大多数问题通常会在几个小时或一天内解决。如果您遇到问题,请打开 Issue,以便我们能够更快地修复它!
pip install git+https://github.com/huggingface/huggingface_hub
从源代码安装时,您也可以指定一个特定分支。如果您想测试尚未合并的新功能或新错误修复,这很有用。
pip install git+https://github.com/huggingface/huggingface_hub@my-feature-branch
完成后,检查安装 是否正常工作。
可编辑安装
从源代码安装允许您设置 可编辑安装。如果您计划贡献到 huggingface_hub
并需要测试代码中的更改,这是一个更高级的安装。您需要在您的机器上克隆 huggingface_hub
的本地副本。
# First, clone repo locally
git clone https://github.com/huggingface/huggingface_hub.git
# Then, install with -e flag
cd huggingface_hub
pip install -e .
这些命令将链接您克隆存储库的文件夹以及您的 Python 库路径。Python 现在将在您克隆的文件夹以及正常的库路径中进行查找。例如,如果您的 Python 包通常安装在 ./.venv/lib/python3.12/site-packages/
中,Python 还会搜索您克隆的文件夹 ./huggingface_hub/
。
使用 conda 安装
如果您更熟悉它,您可以使用 conda-forge 频道 安装 huggingface_hub
。
conda install -c conda-forge huggingface_hub
完成后,检查安装 是否正常工作。
检查安装
安装完成后,通过运行以下命令检查 huggingface_hub
是否正常工作
python -c "from huggingface_hub import model_info; print(model_info('gpt2'))"
此命令将从 Hub 中获取有关 gpt2 模型的信息。输出应类似于以下内容
Model Name: gpt2 Tags: ['pytorch', 'tf', 'jax', 'tflite', 'rust', 'safetensors', 'gpt2', 'text-generation', 'en', 'doi:10.57967/hf/0039', 'transformers', 'exbert', 'license:mit', 'has_space'] Task: text-generation
Windows 限制
为了将良好的机器学习民主化到各个地方,我们构建了 huggingface_hub
,使其成为一个跨平台库,特别是在 Unix 和 Windows 系统上都能正常工作。但是,在 Windows 上运行时,huggingface_hub
在某些情况下存在一些限制。以下是一份已知问题的完整列表。如果您遇到任何未记录的问题,请通过打开 GitHub 上的 Issue 告知我们。
huggingface_hub
的缓存系统依赖于符号链接来有效地缓存从 Hub 下载的文件。在 Windows 上,您必须激活开发者模式或以管理员身份运行脚本才能启用符号链接。如果它们未激活,缓存系统仍然可以工作,但方式并非优化。请阅读 缓存限制 部分以了解更多详细信息。- Hub 上的文件路径可能包含特殊字符(例如
"path/to?/my/file"
)。Windows 对 特殊字符 的限制更严格,这使得无法在 Windows 上下载这些文件。希望这是一种罕见的情况。如果您认为这是一个错误,请与存储库所有者联系,或者与我们联系以找到解决方案。
下一步
一旦 huggingface_hub
在您的机器上正确安装,您可能需要 配置环境变量 或 查看我们的指南之一 以开始使用。