Inference Providers 文档

翻译

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

翻译

翻译是将文本从一种语言转换为另一种语言的任务。

有关 translation 任务的更多详细信息,请查看其专用页面!您将在其中找到示例和相关材料。

推荐模型

  • facebook/nllb-200-1.3B: 非常强大的模型,可以翻译多种语言,尤其是低资源语言。
  • google-t5/t5-base: 通用 Transformer,可用于将英语翻译成德语、法语或罗马尼亚语。

浏览所有可用模型,找到最适合您的模型此处

使用 API

from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hf-inference",
    api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)

result = client.translation(
    inputs="Меня зовут Вольфганг и я живу в Берлине",
    model="facebook/mbart-large-50-many-to-many-mmt",
)

API 规范

请求

Payload
inputs* string 要翻译的文本。
parameters object
        src_lang string 文本的源语言。对于可以从多种语言翻译的模型是必需的。
        tgt_lang string 要翻译成的目标语言。对于可以翻译成多种语言的模型是必需的。
        clean_up_tokenization_spaces boolean 是否清理文本输出中潜在的额外空格。
        truncation enum 可能的值:do_not_truncate、longest_first、only_first、only_second。
        generate_parameters object 文本生成算法的附加参数化。

可以通过将标头传递到 Inference API 来配置某些选项。以下是可用的标头

标头
authorization string 'Bearer: hf_****' 形式的身份验证标头,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。您可以从您的设置页面生成一个。
x-use-cache boolean,默认为 true 推理 API 上有一个缓存层,用于加速我们已经看到的请求。大多数模型可以使用这些结果,因为它们是确定性的(意味着输出无论如何都是相同的)。但是,如果您使用非确定性模型,则可以设置此参数以防止使用缓存机制,从而产生真正的全新查询。阅读有关缓存的更多信息此处
x-wait-for-model boolean,默认为 false 如果模型未准备好,请等待它而不是收到 503。它限制了完成推理所需的请求数量。建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。阅读有关模型可用性的更多信息此处

有关 Inference API 标头的更多信息,请查看指南中的参数。

响应

Body
translation_text string 翻译后的文本。
< > 在 GitHub 上更新