文本生成推理文档

服务私有和受限模型

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验的访问权限

开始使用

服务私有和受限模型

如果您希望服务的模型位于受限访问权限之后,或者 Hugging Face Hub 上的模型存储库为私有,并且您有权访问该模型,则可以提供您的 Hugging Face Hub 访问令牌。您可以从Hugging Face Hub 令牌页面生成并复制读取令牌。

如果您使用的是 CLI,请设置 HF_TOKEN 环境变量。例如

export HF_TOKEN=<YOUR READ TOKEN>

如果您想通过 Docker 进行操作,则可以通过指定 HF_TOKEN(如下所示)来提供您的令牌。

model=meta-llama/Llama-2-7b-chat-hf
volume=$PWD/data
token=<your READ token>

docker run --gpus all \
    --shm-size 1g \
    -e HF_TOKEN=$token \
    -p 8080:80 \
    -v $volume:/data ghcr.io/huggingface/text-generation-inference:2.3.1 \
    --model-id $model
< > 在 GitHub 上更新