Huggingface.js 文档

接口:BaseArgs

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

接口:BaseArgs

属性

accessToken

可选 accessTokenstring

要使用的访问令牌。没有它,你很快就会受到速率限制。

可在 hf.co/settings/token 免费创建

如果你打算调用 Sambanova、Together、Replicate 等兼容的推理提供商,也可以传入外部推理提供商的密钥。

定义在

inference/src/types.ts:92


endpointUrl

可选 endpointUrlstring

要使用的端点 URL。

如果未指定,将调用默认的 router.huggingface.co 推理提供商端点。

定义在

inference/src/types.ts:109


model

可选 modelstring

要使用的 HF 模型。

如果未指定,将调用 huggingface.co/api/tasks 以获取任务的默认模型。

/!\ 遗留行为允许将其作为 URL,但这已被弃用,将来会移除。请改用 endpointUrl 参数。

定义在

inference/src/types.ts:102


provider

可选 provider: "black-forest-labs" | "cerebras" | "cohere" | "fal-ai" | "featherless-ai" | "fireworks-ai" | "groq" | "hf-inference" | "hyperbolic" | "nebius" | "novita" | "nscale" | "openai" | "ovhcloud" | "replicate" | "sambanova" | "together" | "auto"

设置一个推理提供商来运行此模型。

默认为“auto”,即模型可用的提供商中的第一个,按用户在 https://huggingface.co/settings/inference-providers 中的顺序排序。

定义在

inference/src/types.ts:116

< > 在 GitHub 上更新