推理提供商文档
填充掩码
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
填充掩码
掩码填充是在序列中间预测正确单词(确切地说是标记)的任务。
有关 `fill-mask` 任务的更多详细信息,请查看其专用页面!您将找到示例和相关材料。
推荐模型
- FacebookAI/xlm-roberta-base: 一个在 100 种语言上训练的多语言模型。
在此处探索所有可用模型,找到最适合您的模型。
使用 API
语言
客户端
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key=os.environ["HF_TOKEN"],
)
result = client.fill_mask(
"The answer to the universe is undefined.",
model="google-bert/bert-base-uncased",
)
API 规范
请求
标头 | ||
---|---|---|
授权 | 字符串 | 认证头部的形式为 `Bearer: hf_****`,其中 `hf_****` 是具有“推理提供商”权限的个人用户访问令牌。您可以从您的设置页面生成一个。 |
有效负载 | ||
---|---|---|
inputs* | 字符串 | 包含掩码标记的文本 |
参数 | 对象 | |
top_k | 整数 | 传入时,会覆盖要返回的预测数量。 |
targets | 字符串数组 | 传入时,模型会将分数限制在传入的目标上,而不是在整个词汇表中查找。如果提供的目标不在模型词汇表中,它们将被分词,并使用第一个结果标记(带有警告,并且可能会更慢)。 |
响应
正文 | ||
---|---|---|
(数组) | 对象数组 | 输出是一个对象数组。 |
sequence | 字符串 | 带有掩码标记预测的相应输入。 |
score | 数字 | 相应的概率 |
token | 整数 | 预测的标记 ID(替换掩码)。 |
token_str | 字符串 | 预测的标记(替换掩码)。 |