Inference Providers 文档
图像分割
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
图像分割
图像分割将图像划分为多个片段,其中图像中的每个像素都映射到一个对象。
有关 image-segmentation
任务的更多详细信息,请查看其专用页面!您将在其中找到示例和相关资料。
推荐模型
- openmmlab/upernet-convnext-small:在 ADE20k 上训练的可靠语义分割模型。
- facebook/mask2former-swin-large-coco-panoptic:在 COCO(常见对象)数据集上训练的全景分割模型。
在这里浏览所有可用模型,找到最适合您的模型 。
使用 API
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)
output = client.image_segmentation("cats.jpg", model="jonathandinu/face-parsing")
API 规范
请求
有效负载 | ||
---|---|---|
inputs* | 字符串 | 输入图像数据为 base64 编码的字符串。如果未提供 parameters ,您也可以将图像数据作为原始字节有效负载提供。 |
parameters | 对象 | |
mask_threshold | 数字 | 将预测的掩码转换为二进制值时使用的阈值。 |
overlap_mask_area_threshold | 数字 | 掩码重叠阈值,用于消除小的、不连贯的片段。 |
subtask | 枚举 | 可能的值:instance、panoptic、semantic。 |
threshold | 数字 | 用于过滤掉预测掩码的概率阈值。 |
某些选项可以通过将标头传递给 Inference API 进行配置。以下是可用的标头
标头 | ||
---|---|---|
authorization | 字符串 | 身份验证标头,格式为 'Bearer: hf_****' ,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。您可以从您的设置页面生成一个。 |
x-use-cache | 布尔值,默认为 true | Inference API 上有一个缓存层,用于加速我们已经看到的请求。大多数模型都可以使用这些结果,因为它们是确定性的(意味着输出无论如何都会相同)。但是,如果您使用非确定性模型,您可以设置此参数以防止使用缓存机制,从而产生真正的全新查询。在此处阅读有关缓存的更多信息。 |
x-wait-for-model | 布尔值,默认为 false | 如果模型尚未准备好,请等待它,而不是收到 503 错误。它限制了完成推理所需的请求数量。建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。在此处阅读有关模型可用性的更多信息。 |
有关 Inference API 标头的更多信息,请查看参数指南。
响应
正文 | ||
---|---|---|
(数组) | 对象数组 | 预测的掩码/片段 |
label | 字符串 | 预测片段的标签。 |
mask | 字符串 | 相应的掩码,以黑白图像(base64 编码)形式。 |
score | 数字 | 模型的分数或置信度。 |