Inference Providers 文档
翻译
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
翻译
翻译是将文本从一种语言转换为另一种语言的任务。
有关 translation
任务的更多详细信息,请查看其专用页面!您将在其中找到示例和相关材料。
推荐模型
- facebook/nllb-200-1.3B: 非常强大的模型,可以翻译多种语言,尤其是低资源语言。
- google-t5/t5-base: 通用 Transformer,可用于将英语翻译成德语、法语或罗马尼亚语。
浏览所有可用模型,找到最适合您的模型此处。
使用 API
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)
result = client.translation(
inputs="Меня зовут Вольфганг и я живу в Берлине",
model="facebook/mbart-large-50-many-to-many-mmt",
)
API 规范
请求
Payload | ||
---|---|---|
inputs* | string | 要翻译的文本。 |
parameters | object | |
src_lang | string | 文本的源语言。对于可以从多种语言翻译的模型是必需的。 |
tgt_lang | string | 要翻译成的目标语言。对于可以翻译成多种语言的模型是必需的。 |
clean_up_tokenization_spaces | boolean | 是否清理文本输出中潜在的额外空格。 |
truncation | enum | 可能的值:do_not_truncate、longest_first、only_first、only_second。 |
generate_parameters | object | 文本生成算法的附加参数化。 |
可以通过将标头传递到 Inference API 来配置某些选项。以下是可用的标头
标头 | ||
---|---|---|
authorization | string | 'Bearer: hf_****' 形式的身份验证标头,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。您可以从您的设置页面生成一个。 |
x-use-cache | boolean,默认为 true | 推理 API 上有一个缓存层,用于加速我们已经看到的请求。大多数模型可以使用这些结果,因为它们是确定性的(意味着输出无论如何都是相同的)。但是,如果您使用非确定性模型,则可以设置此参数以防止使用缓存机制,从而产生真正的全新查询。阅读有关缓存的更多信息此处。 |
x-wait-for-model | boolean,默认为 false | 如果模型未准备好,请等待它而不是收到 503。它限制了完成推理所需的请求数量。建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。阅读有关模型可用性的更多信息此处。 |
有关 Inference API 标头的更多信息,请查看指南中的参数。
响应
Body | ||
---|---|---|
translation_text | string | 翻译后的文本。 |