填词
填词任务是指预测序列中间的正确单词(准确地说是词元)。
有关 fill-mask
任务的更多详细信息,请查看其 专用页面!您将找到示例和相关材料。
推荐模型
- google-bert/bert-base-uncased: 著名的 BERT 模型。
- FacebookAI/xlm-roberta-base: 在 100 种语言上训练的多语言模型。
探索所有可用的模型,找到最适合您的模型 这里.
使用 API
Python
JavaScript
cURL
import requests
API_URL = "https://api-inference.huggingface.co/models/google-bert/bert-base-uncased"
headers = {"Authorization": "Bearer hf_***"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
output = query({
"inputs": "The answer to the universe is [MASK].",
})
要使用 Python 客户端,请参见 huggingface_hub
的 软件包参考.
API 规范
请求
有效载荷 | ||
---|---|---|
输入* | 字符串 | 包含掩码词元的文本 |
参数 | 对象 | 填词的额外推理参数 |
top_k | 整数 | 如果传递,将覆盖要返回的预测数量。 |
目标 | 字符串[] | 如果传递,模型将限制分数到传递的目标,而不是在整个词汇表中查找。如果提供的目标不在模型词汇表中,它们将被标记化,并且将使用第一个生成的词元(带警告,这可能会更慢)。 |
可以通过向推理 API 传递标头来配置某些选项。以下是可用的标头
标头 | ||
---|---|---|
授权 | 字符串 | 身份验证标头,格式为 'Bearer: hf_****' ,其中 hf_**** 是具有推理 API 权限的个人用户访问令牌。您可以从 您的设置页面 生成一个。 |
x-use-cache | 布尔值,默认为 true | 推理 API 上有一个缓存层,可以加快我们已经见过的请求的速度。大多数模型可以使用这些结果,因为它们是确定性的(这意味着输出无论如何都是相同的)。但是,如果您使用的是非确定性模型,您可以将此参数设置为防止使用缓存机制,从而导致真正的新查询。阅读更多关于缓存 这里. |
x-wait-for-model | 布尔值,默认为 false | 如果模型未准备好,则等待它,而不是接收 503。它限制了完成推理所需的请求数量。建议您仅在收到 503 错误后才将此标志设置为 true,因为它将限制您的应用程序在已知位置挂起。阅读更多关于模型可用性 这里. |
有关推理 API 标头的更多信息,请查看参数指南。
响应
主体 | ||
---|---|---|
(数组) | object[] | 输出是一个对象数组。 |
序列 | 字符串 | 包含掩码标记预测的相应输入。 |
分数 | 数字 | 相应的概率 |
标记 | 整数 | 预测的标记 ID(用于替换掩码标记)。 |
标记字符串 | 字符串 | 预测的标记(用于替换掩码标记)。 |