Hub 文档

在 Hugging Face 使用 OpenCLIP

Hugging Face's logo
加入 Hugging Face 社区

并获取增强文档体验

开始使用

在 Hugging Face 上使用 OpenCLIP

OpenCLIP 是 OpenAI 的 CLIP 的开源实现。

在 Hub 上探索 OpenCLIP

您可以在 模型页面 左侧的筛选器中找到 OpenCLIP 模型。

托管在 Hub 上的 OpenCLIP 模型具有包含模型有用信息的模型卡片。感谢 OpenCLIP Hugging Face Hub 集成,您可以使用几行代码加载 OpenCLIP 模型。您还可以使用 推理端点 部署这些模型。

安装

要开始使用,您可以按照 OpenCLIP 安装指南 进行操作。您还可以通过 pip 使用以下单行安装

$ pip install open_clip_torch

使用现有模型

所有 OpenCLIP 模型都可以轻松地从 Hub 加载。

import open_clip

model, preprocess = open_clip.create_model_from_pretrained('hf-hub:laion/CLIP-ViT-g-14-laion2B-s12B-b42K')
tokenizer = open_clip.get_tokenizer('hf-hub:laion/CLIP-ViT-g-14-laion2B-s12B-b42K')

加载后,您可以对图像和文本进行编码以进行 零样本图像分类

import torch
from PIL import Image

url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
image = preprocess(image).unsqueeze(0)
text = tokenizer(["a diagram", "a dog", "a cat"])

with torch.no_grad(), torch.cuda.amp.autocast():
    image_features = model.encode_image(image)
    text_features = model.encode_text(text)
    image_features /= image_features.norm(dim=-1, keepdim=True)
    text_features /= text_features.norm(dim=-1, keepdim=True)

    text_probs = (100.0 * image_features @ text_features.T).softmax(dim=-1)

print("Label probs:", text_probs) 

它输出每个可能类别的概率。

Label probs: tensor([[0.0020, 0.0034, 0.9946]])

如果要加载特定的 OpenCLIP 模型,可以在模型卡片中点击“在 OpenCLIP 中使用”,系统将为您提供一个可用的代码片段!

其他资源

< > 在 GitHub 上更新