Huggingface.js 文档
接口:BaseArgs
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
接口:BaseArgs
属性
accessToken
• 可选
accessToken:string
要使用的访问令牌。没有它,你很快就会受到速率限制。
可在 hf.co/settings/token 免费创建
如果你打算调用 Sambanova、Together、Replicate 等兼容的推理提供商,也可以传入外部推理提供商的密钥。
定义在
endpointUrl
• 可选
endpointUrl:string
要使用的端点 URL。
如果未指定,将调用默认的 router.huggingface.co 推理提供商端点。
定义在
model
• 可选
model:string
要使用的 HF 模型。
如果未指定,将调用 huggingface.co/api/tasks 以获取任务的默认模型。
/!\ 遗留行为允许将其作为 URL,但这已被弃用,将来会移除。请改用 endpointUrl
参数。
定义在
provider
• 可选
provider: "black-forest-labs"
| "cerebras"
| "cohere"
| "fal-ai"
| "featherless-ai"
| "fireworks-ai"
| "groq"
| "hf-inference"
| "hyperbolic"
| "nebius"
| "novita"
| "nscale"
| "openai"
| "ovhcloud"
| "replicate"
| "sambanova"
| "together"
| "auto"
设置一个推理提供商来运行此模型。
默认为“auto”,即模型可用的提供商中的第一个,按用户在 https://huggingface.co/settings/inference-providers 中的顺序排序。