推理提供商文档
图像分类
加入 Hugging Face 社区
并获得增强的文档体验
开始使用
图像分类
图像分类是将标签或类别分配给整个图像的任务。 图像预计每个图像只有一个类别。
有关 image-classification
任务的更多详细信息,请查看其专用页面! 您将在其中找到示例和相关材料。
推荐模型
- google/vit-base-patch16-224:强大的图像分类模型。
- facebook/deit-base-distilled-patch16-224:稳健的图像分类模型。
- facebook/convnext-large-224:强大的图像分类模型。
浏览所有可用模型,找到最适合您的模型此处。
使用 API
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key="hf_xxxxxxxxxxxxxxxxxxxxxxxx",
)
output = client.image_classification("cats.jpg", model="Falconsai/nsfw_image_detection")
API 规范
请求
负载 | ||
---|---|---|
inputs* | 字符串 | 作为 base64 编码字符串的输入图像数据。 如果未提供 parameters ,您还可以将图像数据作为原始字节负载提供。 |
parameters | 对象 | |
function_to_apply | 枚举 | 可能的值:sigmoid、softmax、none。 |
top_k | 整数 | 指定后,将输出限制为前 K 个最可能的类别。 |
可以通过将标头传递到 Inference API 来配置某些选项。 以下是可用的标头
标头 | ||
---|---|---|
authorization | 字符串 | 格式为 'Bearer: hf_****' 的身份验证标头,其中 hf_**** 是具有 Inference API 权限的个人用户访问令牌。 您可以从您的设置页面生成一个。 |
x-use-cache | 布尔值,默认为 true | Inference API 上有一个缓存层,用于加速我们已经看到的请求。 大多数模型都可以使用这些结果,因为它们是确定性的(意味着无论如何输出都将相同)。 但是,如果您使用非确定性模型,则可以设置此参数以防止使用缓存机制,从而导致真正的全新查询。 阅读有关缓存的更多信息此处。 |
x-wait-for-model | 布尔值,默认为 false | 如果模型尚未准备好,请等待它而不是收到 503。 它限制了完成推理所需的请求数量。 建议仅在收到 503 错误后才将此标志设置为 true,因为它会将应用程序中的挂起限制在已知位置。 阅读有关模型可用性的更多信息此处。 |
有关 Inference API 标头的更多信息,请查看参数指南。
响应
正文 | ||
---|---|---|
(数组) | object[] | 输出是对象数组。 |
label | 字符串 | 预测的类别标签。 |
score | 数字 | 相应的概率。 |