api-inference 文档

填词

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

填词

填词任务是指预测序列中间的正确单词(准确地说是词元)。

有关 fill-mask 任务的更多详细信息,请查看其 专用页面!您将找到示例和相关材料。

推荐模型

探索所有可用的模型,找到最适合您的模型 这里.

使用 API

Python
JavaScript
cURL
import requests

API_URL = "https://api-inference.huggingface.co/models/google-bert/bert-base-uncased"
headers = {"Authorization": "Bearer hf_***"}

def query(payload):
	response = requests.post(API_URL, headers=headers, json=payload)
	return response.json()
	
output = query({
	"inputs": "The answer to the universe is [MASK].",
})

要使用 Python 客户端,请参见 huggingface_hub软件包参考.

API 规范

请求

有效载荷
输入* 字符串 包含掩码词元的文本
参数 对象 填词的额外推理参数
        top_k 整数 如果传递,将覆盖要返回的预测数量。
        目标 字符串[] 如果传递,模型将限制分数到传递的目标,而不是在整个词汇表中查找。如果提供的目标不在模型词汇表中,它们将被标记化,并且将使用第一个生成的词元(带警告,这可能会更慢)。

可以通过向推理 API 传递标头来配置某些选项。以下是可用的标头

标头
授权 字符串 身份验证标头,格式为 'Bearer: hf_****',其中 hf_**** 是具有推理 API 权限的个人用户访问令牌。您可以从 您的设置页面 生成一个。
x-use-cache 布尔值,默认为 true 推理 API 上有一个缓存层,可以加快我们已经见过的请求的速度。大多数模型可以使用这些结果,因为它们是确定性的(这意味着输出无论如何都是相同的)。但是,如果您使用的是非确定性模型,您可以将此参数设置为防止使用缓存机制,从而导致真正的新查询。阅读更多关于缓存 这里.
x-wait-for-model 布尔值,默认为 false 如果模型未准备好,则等待它,而不是接收 503。它限制了完成推理所需的请求数量。建议您仅在收到 503 错误后才将此标志设置为 true,因为它将限制您的应用程序在已知位置挂起。阅读更多关于模型可用性 这里.

有关推理 API 标头的更多信息,请查看参数指南

响应

主体
(数组) object[] 输出是一个对象数组。
        序列 字符串 包含掩码标记预测的相应输入。
        分数 数字 相应的概率
        标记 整数 预测的标记 ID(用于替换掩码标记)。
        标记字符串 字符串 预测的标记(用于替换掩码标记)。
< > 在 GitHub 上更新