推理提供商文档

问答

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

问答

问答模型可以从给定文本中检索问题的答案,这对于在文档中搜索答案很有用。

有关问答任务的更多详细信息,请查看其专用页面!您将找到示例和相关材料。

推荐模型

在此处探索所有可用模型,找到最适合您的模型。

使用API

import os
from huggingface_hub import InferenceClient

client = InferenceClient(
    provider="hf-inference",
    api_key=os.environ["HF_TOKEN"],
)

answer = client.question_answering(
    question="What is my name?",
    context="My name is Clara and I live in Berkeley.",
    model="deepset/roberta-base-squad2",
)

API规范

请求

标头
授权 字符串 认证头格式为'Bearer: hf_****',其中hf_****是具有“推理提供商”权限的个人用户访问令牌。您可以从您的设置页面生成一个。
有效负载
输入* 对象 一个(上下文,问题)对用于回答
        上下文* 字符串 用于回答问题的上下文
        问题* 字符串 要回答的问题
参数 对象
        top_k 整数 返回的答案数量(将按可能性顺序选择)。请注意,如果上下文中没有足够的选项可用,我们返回的答案将少于topk。
        doc_stride 整数 如果上下文太长,无法与模型问题适配,它将分成几个有重叠的块。此参数控制重叠的大小。
        max_answer_len 整数 预测答案的最大长度(例如,只考虑长度更短的答案)。
        max_seq_len 整数 传递给模型的每个块中,总句子(上下文+问题)的最大令牌长度。如果需要,上下文将分成几个块(使用docStride作为重叠)。
        max_question_len 整数 分词后问题的最大长度。如果需要,它将被截断。
        handle_impossible_answer 布尔值 是否接受“不可能”作为答案。
        align_to_words 布尔值 尝试将答案与实际单词对齐。提高以空格分隔的语言的质量。可能会损害非空格分隔语言(如日语或中文)的质量

响应

正文
(数组) 对象数组 输出是一个对象数组。
        answer 字符串 问题的答案。
        score 数字 与答案相关的概率。
        start 整数 答案在输入中的起始字符位置。
        end 整数 答案在输入中的结束字符位置。
< > 在 GitHub 上更新