推理提供商文档
问答
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
问答
问答模型可以从给定文本中检索问题的答案,这对于在文档中搜索答案很有用。
有关问答
任务的更多详细信息,请查看其专用页面!您将找到示例和相关材料。
推荐模型
- deepset/roberta-base-squad2:大多数问答领域的强大基线模型。
- distilbert/distilbert-base-cased-distilled-squad:一个小型但强大的问答模型。
- google/tapas-base-finetuned-wtq:一个可以从表格中回答问题的特殊模型。
在此处探索所有可用模型,找到最适合您的模型。
使用API
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key=os.environ["HF_TOKEN"],
)
answer = client.question_answering(
question="What is my name?",
context="My name is Clara and I live in Berkeley.",
model="deepset/roberta-base-squad2",
)
API规范
请求
标头 | ||
---|---|---|
授权 | 字符串 | 认证头格式为'Bearer: hf_****' ,其中hf_**** 是具有“推理提供商”权限的个人用户访问令牌。您可以从您的设置页面生成一个。 |
有效负载 | ||
---|---|---|
输入* | 对象 | 一个(上下文,问题)对用于回答 |
上下文* | 字符串 | 用于回答问题的上下文 |
问题* | 字符串 | 要回答的问题 |
参数 | 对象 | |
top_k | 整数 | 返回的答案数量(将按可能性顺序选择)。请注意,如果上下文中没有足够的选项可用,我们返回的答案将少于topk。 |
doc_stride | 整数 | 如果上下文太长,无法与模型问题适配,它将分成几个有重叠的块。此参数控制重叠的大小。 |
max_answer_len | 整数 | 预测答案的最大长度(例如,只考虑长度更短的答案)。 |
max_seq_len | 整数 | 传递给模型的每个块中,总句子(上下文+问题)的最大令牌长度。如果需要,上下文将分成几个块(使用docStride作为重叠)。 |
max_question_len | 整数 | 分词后问题的最大长度。如果需要,它将被截断。 |
handle_impossible_answer | 布尔值 | 是否接受“不可能”作为答案。 |
align_to_words | 布尔值 | 尝试将答案与实际单词对齐。提高以空格分隔的语言的质量。可能会损害非空格分隔语言(如日语或中文)的质量 |
响应
正文 | ||
---|---|---|
(数组) | 对象数组 | 输出是一个对象数组。 |
answer | 字符串 | 问题的答案。 |
score | 数字 | 与答案相关的概率。 |
start | 整数 | 答案在输入中的起始字符位置。 |
end | 整数 | 答案在输入中的结束字符位置。 |