text-generation-inference 文档

使用 TGI CLI

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

使用 TGI CLI

您可以使用 TGI 命令行界面 (CLI) 下载权重、服务和量化模型,或获取有关服务参数的信息。要安装 CLI,请参阅安装部分

text-generation-server 允许您使用 download-weights 命令下载模型,如下所示 👇

text-generation-server download-weights MODEL_HUB_ID

您也可以使用它来量化模型,如下所示 👇

text-generation-server quantize MODEL_HUB_ID OUTPUT_DIR

您可以使用 text-generation-launcher 来服务模型。

text-generation-launcher --model-id MODEL_HUB_ID --port 8080

您可以将许多选项和参数传递给 text-generation-launcher。CLI 的文档保持在最低限度,旨在依赖于自生成文档,可以通过运行以下命令找到:

text-generation-launcher --help

您也可以在此 Swagger UI 中找到它。

text-generation-server 也有相同的文档。

text-generation-server --help
< > 在 GitHub 上更新