OWL-ViT
概述
OWL-ViT(开放世界定位视觉Transformer的缩写)是由 Matthias Minderer、Alexey Gritsenko、Austin Stone、Maxim Neumann、Dirk Weissenborn、Alexey Dosovitskiy、Aravindh Mahendran、Anurag Arnab、Mostafa Dehghani、Zhuoran Shen、Xiao Wang、Xiaohua Zhai、Thomas Kipf 和 Neil Houlsby 在使用视觉Transformer进行简单的开放词汇目标检测 中提出的。OWL-ViT 是一个开放词汇目标检测网络,在各种(图像、文本)对上进行训练。它可以用于使用一个或多个文本查询来查询图像,以搜索和检测文本中描述的目标对象。
该论文的摘要是这样的:
将简单的架构与大规模预训练相结合,已经大大改进了图像分类。对于目标检测来说,预训练和缩放方法还没有那么成熟,特别是在长尾和开放词汇环境中,训练数据相对稀缺。在本文中,我们提出了一种将图像-文本模型迁移到开放词汇目标检测的强有力方法。我们使用标准的视觉Transformer架构,并进行最小的修改、对比图像-文本预训练和端到端检测微调。我们对这种设置的缩放特性的分析表明,增加图像级预训练和模型大小可以持续改进下游检测任务。我们提供了实现零样本文本条件和单样本图像条件目标检测所需的自适应策略和正则化方法。代码和模型可在 GitHub 上获得。
OWL-ViT 架构。取自原始论文。使用技巧
OWL-ViT 是一个零样本文本条件目标检测模型。OWL-ViT 使用 CLIP 作为其多模态骨干网络,使用类似 ViT 的 Transformer 来获取视觉特征,并使用因果语言模型来获取文本特征。为了将 CLIP 用于检测,OWL-ViT 删除了视觉模型的最终标记池化层,并将轻量级分类和框头附加到每个 Transformer 输出标记上。通过将固定的分类层权重替换为从文本模型获得的类名嵌入,可以实现开放词汇分类。作者首先从头开始训练 CLIP,并在标准检测数据集上使用二分匹配损失对分类和框头进行端到端微调。每个图像可以使用一个或多个文本查询来执行零样本文本条件目标检测。
OwlViTImageProcessor 可以用于调整图像大小(或重新缩放)并为模型规范化图像,而 CLIPTokenizer 用于编码文本。OwlViTProcessor 将 OwlViTImageProcessor 和 CLIPTokenizer 封装到一个实例中,以同时编码文本和准备图像。以下示例展示了如何使用 OwlViTProcessor 和 OwlViTForObjectDetection 执行目标检测。
>>> import requests
>>> from PIL import Image
>>> import torch
>>> from transformers import OwlViTProcessor, OwlViTForObjectDetection
>>> processor = OwlViTProcessor.from_pretrained("google/owlvit-base-patch32")
>>> model = OwlViTForObjectDetection.from_pretrained("google/owlvit-base-patch32")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> texts = [["a photo of a cat", "a photo of a dog"]]
>>> inputs = processor(text=texts, images=image, return_tensors="pt")
>>> outputs = model(**inputs)
>>> # Target image sizes (height, width) to rescale box predictions [batch_size, 2]
>>> target_sizes = torch.Tensor([image.size[::-1]])
>>> # Convert outputs (bounding boxes and class logits) to Pascal VOC format (xmin, ymin, xmax, ymax)
>>> results = processor.post_process_object_detection(outputs=outputs, target_sizes=target_sizes, threshold=0.1)
>>> i = 0 # Retrieve predictions for the first image for the corresponding text queries
>>> text = texts[i]
>>> boxes, scores, labels = results[i]["boxes"], results[i]["scores"], results[i]["labels"]
>>> for box, score, label in zip(boxes, scores, labels):
... box = [round(i, 2) for i in box.tolist()]
... print(f"Detected {text[label]} with confidence {round(score.item(), 3)} at location {box}")
Detected a photo of a cat with confidence 0.707 at location [324.97, 20.44, 640.58, 373.29]
Detected a photo of a cat with confidence 0.717 at location [1.46, 55.26, 315.55, 472.17]
资源
可以在此处找到关于使用 OWL-ViT 进行零样本和单样本(图像引导)目标检测的演示笔记本。
OwlViTConfig
类 transformers.OwlViTConfig
< 源代码 >( text_config = None vision_config = None projection_dim = 512 logit_scale_init_value = 2.6592 return_dict = True **kwargs )
参数
- text_config (
dict
, 可选) — 用于初始化 OwlViTTextConfig 的配置选项字典。 - vision_config (
dict
, 可选) — 用于初始化 OwlViTVisionConfig 的配置选项字典。 - projection_dim (
int
, 可选, 默认值为 512) — 文本和视觉投影层的维度。 - logit_scale_init_value (
float
, 可选, 默认值为 2.6592) — logit_scale 参数的初始值。默认值与原始 OWL-ViT 实现中使用的一致。 - return_dict (
bool
, 可选, 默认值为True
) — 模型是否应返回字典。如果为False
,则返回元组。 - kwargs (可选) — 关键字参数字典。
OwlViTConfig 是用于存储 OwlViTModel 配置的配置类。它用于根据指定的参数实例化 OWL-ViT 模型,定义文本模型和视觉模型的配置。使用默认值实例化配置将产生与 OWL-ViT google/owlvit-base-patch32 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
from_text_vision_configs
< 源代码 >( text_config: Dict vision_config: Dict **kwargs ) → OwlViTConfig
从 owlvit 文本模型配置和 owlvit 视觉模型配置实例化 OwlViTConfig(或派生类)。
OwlViTTextConfig
类 transformers.OwlViTTextConfig
< 源代码 >( vocab_size = 49408 hidden_size = 512 intermediate_size = 2048 num_hidden_layers = 12 num_attention_heads = 8 max_position_embeddings = 16 hidden_act = 'quick_gelu' layer_norm_eps = 1e-05 attention_dropout = 0.0 initializer_range = 0.02 initializer_factor = 1.0 pad_token_id = 0 bos_token_id = 49406 eos_token_id = 49407 **kwargs )
参数
- vocab_size (
int
, 可选, 默认值为 49408) — OWL-ViT 文本模型的词汇表大小。定义了在调用 OwlViTTextModel 时传递的inputs_ids
可以表示的不同标记的数量。 - hidden_size (
int
, 可选, 默认值为 512) — 编码器层和池化层的维度。 - intermediate_size (
int
, 可选, 默认值为 2048) — Transformer 编码器中“中间”(即前馈)层的维度。 - num_hidden_layers (
int
, 可选, 默认值为 12) — Transformer 编码器中的隐藏层数。 - num_attention_heads (
int
, 可选, 默认值为 8) — Transformer 编码器中每个注意力层的注意力头数。 - max_position_embeddings (
int
, 可选, 默认值为 16) — 此模型可能使用的最大序列长度。 通常将其设置为较大的值以防万一(例如 512、1024 或 2048)。 - hidden_act (
str
或function
, 可选, 默认值为"quick_gelu"
) — 编码器和池化器中的非线性激活函数(函数或字符串)。 如果是字符串,则支持"gelu"
、"relu"
、"selu"
、"gelu_new"
和"quick_gelu"
。 - layer_norm_eps (
float
, 可选, 默认值为 1e-05) — 层归一化层使用的 epsilon 值。 - attention_dropout (
float
, 可选, 默认值为 0.0) — 注意力概率的 dropout 比率。 - initializer_range (
float
, 可选, 默认值为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - initializer_factor (
float
, 可选, 默认值为 1.0) — 初始化所有权重矩阵的因子 (应保持为 1,在内部用于初始化测试)。 - pad_token_id (
int
, 可选, 默认值为 0) — 输入序列中填充标记的 ID。 - bos_token_id (
int
, 可选, 默认值为 49406) — 输入序列中序列开头标记的 ID。 - eos_token_id (
int
, 可选, 默认值为 49407) — 输入序列中序列结尾标记的 ID。
这是用于存储 OwlViTTextModel 配置的配置类。它用于根据指定的参数实例化 OwlViT 文本编码器,定义模型架构。使用默认值实例化配置将产生与 OwlViT google/owlvit-base-patch32 架构相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import OwlViTTextConfig, OwlViTTextModel
>>> # Initializing a OwlViTTextModel with google/owlvit-base-patch32 style configuration
>>> configuration = OwlViTTextConfig()
>>> # Initializing a OwlViTTextConfig from the google/owlvit-base-patch32 style configuration
>>> model = OwlViTTextModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
OwlViTVisionConfig
class transformers.OwlViTVisionConfig
< source >( hidden_size = 768 intermediate_size = 3072 num_hidden_layers = 12 num_attention_heads = 12 num_channels = 3 image_size = 768 patch_size = 32 hidden_act = 'quick_gelu' layer_norm_eps = 1e-05 attention_dropout = 0.0 initializer_range = 0.02 initializer_factor = 1.0 **kwargs )
参数
- hidden_size (
int
, 可选, 默认为 768) — 编码器层和池化层的维度。 - intermediate_size (
int
, 可选, 默认为 3072) — Transformer 编码器中“中间”(即,前馈)层的维度。 - num_hidden_layers (
int
, 可选, 默认为 12) — Transformer 编码器中的隐藏层数。 - num_attention_heads (
int
, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数。 - num_channels (
int
, 可选, 默认为 3) — 输入图像中的通道数。 - image_size (
int
, 可选, 默认为 768) — 每个图像的大小(分辨率)。 - patch_size (
int
,可选,默认为 32) — 每个图像块的大小(分辨率)。 - hidden_act (
str
或function
,可选,默认为"quick_gelu"
) — 编码器和池化层中使用的非线性激活函数(函数或字符串)。如果是字符串,则支持"gelu"
、"relu"
、"selu"
、"gelu_new"
和"quick_gelu"
。 - layer_norm_eps (
float
,可选,默认为 1e-05) — 层归一化层使用的 epsilon 值。 - attention_dropout (
float
,可选,默认为 0.0) — 注意力概率的 dropout 比率。 - initializer_range (
float
,可选,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - initializer_factor (
float
,可选,默认为 1.0) — 用于初始化所有权重矩阵的因子(应保持为 1,在内部用于初始化测试)。
这是用于存储 OwlViTVisionModel 配置的配置类。它用于根据指定参数实例化 OWL-ViT 图像编码器,定义模型架构。使用默认值实例化配置将产生与 OWL-ViT google/owlvit-base-patch32 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import OwlViTVisionConfig, OwlViTVisionModel
>>> # Initializing a OwlViTVisionModel with google/owlvit-base-patch32 style configuration
>>> configuration = OwlViTVisionConfig()
>>> # Initializing a OwlViTVisionModel model from the google/owlvit-base-patch32 style configuration
>>> model = OwlViTVisionModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
OwlViTImageProcessor
类 transformers.OwlViTImageProcessor
< source >( do_resize = True size = None resample = <Resampling.BICUBIC: 3> do_center_crop = False crop_size = None do_rescale = True rescale_factor = 0.00392156862745098 do_normalize = True image_mean = None image_std = None **kwargs )
参数
- do_resize (
bool
,可选,默认为True
) — 是否将输入的较短边调整为某个size
。 - size (
Dict[str, int]
,可选,默认为 {“height” — 768, “width”: 768}):用于调整图像大小的尺寸。仅在do_resize
设置为True
时有效。如果size
是一个像 (h, w) 这样的序列,则输出大小将与此匹配。如果size
是一个整数,则图像将被调整为 (size, size)。 - resample (
int
,可选,默认为Resampling.BICUBIC
) — 可选的重采样过滤器。可以是PIL.Image.Resampling.NEAREST
、PIL.Image.Resampling.BOX
、PIL.Image.Resampling.BILINEAR
、PIL.Image.Resampling.HAMMING
、PIL.Image.Resampling.BICUBIC
或PIL.Image.Resampling.LANCZOS
之一。仅在do_resize
设置为True
时有效。 - do_center_crop (
bool
,可选,默认为False
) — 是否在中心裁剪输入。如果输入大小沿任何边缘小于crop_size
,则图像将用 0 填充,然后进行中心裁剪。 - crop_size (
int
,可选,默认为 {“height” — 768, “width”: 768}): 用于对图像进行中心裁剪的大小。仅在do_center_crop
设置为True
时有效。 - do_rescale (
bool
,可选,默认为True
) — 是否按一定比例缩放输入。 - rescale_factor (
float
,可选,默认为1/255
) — 用于缩放图像的系数。仅在do_rescale
设置为True
时有效。 - do_normalize (
bool
,可选,默认为True
) — 是否使用image_mean
和image_std
对输入进行标准化。应用中心裁剪时所需的输出大小。仅在do_center_crop
设置为True
时有效。 - image_mean (
List[int]
,可选,默认为[0.48145466, 0.4578275, 0.40821073]
) — 每个通道的均值序列,用于对图像进行标准化。 - image_std (
List[int]
,可选,默认为[0.26862954, 0.26130258, 0.27577711]
) — 每个通道的标准差序列,用于对图像进行标准化。
构造一个 OWL-ViT 图像处理器。
此图像处理器继承自 ImageProcessingMixin,其中包含大多数主要方法。用户应参考此超类以获取有关这些方法的更多信息。
预处理
< 源代码 >( images: Union do_resize: Optional = None size: Optional = None resample: Resampling = None do_center_crop: Optional = None crop_size: Optional = None do_rescale: Optional = None rescale_factor: Optional = None do_normalize: Optional = None image_mean: Union = None image_std: Union = None return_tensors: Union = None data_format: Union = <ChannelDimension.FIRST: 'channels_first'> input_data_format: Union = None )
参数
- images (
ImageInput
) — 要准备的图像或图像批次。预期是像素值范围为 0 到 255 的单个或批次图像。如果传入像素值介于 0 和 1 之间的图像,请设置do_rescale=False
。 - do_resize (
bool
, 可选, 默认为self.do_resize
) — 是否调整输入大小。如果为True
,则将输入大小调整为size
指定的大小。 - size (
Dict[str, int]
, 可选, 默认为self.size
) — 调整输入大小的目标大小。仅在do_resize
设置为True
时有效。 - resample (
PILImageResampling
, 可选, 默认为self.resample
) — 调整输入大小时使用的重采样过滤器。仅在do_resize
设置为True
时有效。 - do_center_crop (
bool
, 可选, 默认为self.do_center_crop
) — 是否对输入进行中心裁剪。如果为True
,则将输入中心裁剪为crop_size
指定的大小。 - crop_size (
Dict[str, int]
, *可选*, 默认值为self.crop_size
) — 中心裁剪输入的大小。仅在do_center_crop
设置为True
时有效。 - do_rescale (
bool
, *可选*, 默认值为self.do_rescale
) — 是否重新缩放输入。如果为True
,将通过rescale_factor
对输入进行重新缩放。 - rescale_factor (
float
, *可选*, 默认值为self.rescale_factor
) — 重新缩放输入的系数。仅在do_rescale
设置为True
时有效。 - do_normalize (
bool
, *可选*, 默认值为self.do_normalize
) — 是否对输入进行归一化。如果为True
,将通过减去image_mean
并除以image_std
来对输入进行归一化。 - image_mean (
Union[float, List[float]]
, *可选*, 默认值为self.image_mean
) — 归一化时从输入中减去的平均值。仅在do_normalize
设置为True
时有效。 - image_std (
Union[float, List[float]]
, *可选*, 默认值为self.image_std
) — 归一化时除以输入的标准差。仅在do_normalize
设置为True
时有效。 - return_tensors (
str
或TensorType
, *可选*) — 要返回的张量类型。可以是以下之一:- 未设置:返回
np.ndarray
列表。 TensorType.TENSORFLOW
或'tf'
:返回tf.Tensor
类型的批次。TensorType.PYTORCH
或'pt'
:返回torch.Tensor
类型的批次。TensorType.NUMPY
或'np'
:返回np.ndarray
类型的批次。TensorType.JAX
或'jax'
:返回jax.numpy.ndarray
类型的批次。
- 未设置:返回
- data_format (
ChannelDimension
或str
,可选,默认为ChannelDimension.FIRST
) — 输出图像的通道维度格式。可以是以下之一:ChannelDimension.FIRST
:图像为 (num_channels, height, width) 格式。ChannelDimension.LAST
:图像为 (height, width, num_channels) 格式。- 未设置:默认为输入图像的通道维度格式。
- input_data_format (
ChannelDimension
或str
,可选) — 输入图像的通道维度格式。如果未设置,则从输入图像推断通道维度格式。可以是以下之一:"channels_first"
或ChannelDimension.FIRST
:图像为 (num_channels, height, width) 格式。"channels_last"
或ChannelDimension.LAST
:图像为 (height, width, num_channels) 格式。"none"
或ChannelDimension.NONE
:图像为 (height, width) 格式。
为模型准备一张或一批图像。
post_process_object_detection
< source >( outputs threshold: float = 0.1 target_sizes: Union = None ) → List[Dict]
将 OwlViTForObjectDetection 的原始输出转换为最终边界框,格式为 (top_left_x, top_left_y, bottom_right_x, bottom_right_y)。
post_process_image_guided_detection
< source >( outputs threshold = 0.0 nms_threshold = 0.3 target_sizes = None ) → List[Dict]
参数
- outputs (
OwlViTImageGuidedObjectDetectionOutput
) — 模型的原始输出。 - threshold (
float
, 可选, 默认为 0.0) — 用于过滤预测框的最小置信度阈值。 - nms_threshold (
float
, 可选, 默认为 0.3) — 用于非极大值抑制重叠框的 IoU 阈值。 - target_sizes (
torch.Tensor
, 可选) — 形状为 (batch_size, 2) 的张量,其中每个条目是批次中对应图像的 (高度, 宽度)。如果设置,则预测的归一化边界框将重新缩放为目标大小。如果留空,则预测将不会取消归一化。
返回
List[Dict]
一个字典列表,每个字典包含模型预测的批次中图像的分数、标签和框。由于 OwlViTForObjectDetection.image_guided_detection
执行一次性目标检测,因此所有标签都设置为 None。
将 OwlViTForObjectDetection.image_guided_detection() 的输出转换为 COCO api 预期的格式。
OwlViTFeatureExtractor
预处理一张或一批图像。
post_process
< 源代码 >( outputs target_sizes ) → List[Dict]
将 OwlViTForObjectDetection 的原始输出转换为最终边界框,格式为 (top_left_x, top_left_y, bottom_right_x, bottom_right_y)。
post_process_image_guided_detection
< 源代码 >( outputs threshold = 0.0 nms_threshold = 0.3 target_sizes = None ) → List[Dict]
参数
- outputs (
OwlViTImageGuidedObjectDetectionOutput
) — 模型的原始输出。 - threshold (
float
, 可选, 默认值: 0.0) — 用于过滤预测框的最小置信度阈值。 - nms_threshold (
float
, 可选, 默认值: 0.3) — 用于非极大值抑制重叠框的 IoU 阈值。 - target_sizes (
torch.Tensor
, 可选) — 形状为 (batch_size, 2) 的张量,其中每个条目是批处理中相应图像的 (高度, 宽度)。如果设置,则预测的归一化边界框将重新缩放到目标大小。如果保留为 None,则不会对预测进行反规范化。
返回
List[Dict]
一个字典列表,每个字典包含模型预测的批次中图像的分数、标签和框。由于 OwlViTForObjectDetection.image_guided_detection
执行一次性目标检测,因此所有标签都设置为 None。
将 OwlViTForObjectDetection.image_guided_detection() 的输出转换为 COCO api 预期的格式。
OwlViTProcessor
class transformers.OwlViTProcessor
< source >( image_processor = None tokenizer = None **kwargs )
参数
- image_processor (OwlViTImageProcessor, 可选) — 图像处理器是必需的输入。
- tokenizer ([
CLIPTokenizer
,CLIPTokenizerFast
], 可选) — 分词器是必需的输入。
构造一个 OWL-ViT 处理器,它将 OwlViTImageProcessor 和 CLIPTokenizer/CLIPTokenizerFast 封装到一个继承了图像处理器和分词器功能的处理器中。有关更多信息,请参阅 __call__()
和 decode()。
此方法将其所有参数转发给 CLIPTokenizerFast 的 batch_decode()。有关更多信息,请参阅此方法的文档字符串。
此方法将其所有参数转发给 CLIPTokenizerFast 的 decode()。有关更多信息,请参阅此方法的文档字符串。
此方法将其所有参数转发给 OwlViTImageProcessor.post_process()。有关更多信息,请参阅此方法的文档字符串。
此方法将其所有参数转发给 OwlViTImageProcessor.post_process_one_shot_object_detection
。有关更多信息,请参阅此方法的文档字符串。
此方法将其所有参数转发给 OwlViTImageProcessor.post_process_object_detection()。有关更多信息,请参阅此方法的文档字符串。
OwlViTModel
类 transformers.OwlViTModel
< 源代码 >( config: OwlViTConfig )
参数
- config (OwlViTConfig) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法来加载模型权重。
该模型继承自 PreTrainedModel。 查看父类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解与一般使用和行为相关的所有事项。
forward
< 源代码 >( input_ids: Optional = None pixel_values: Optional = None attention_mask: Optional = None return_loss: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_base_image_embeds: Optional = None return_dict: Optional = None ) → transformers.models.owlvit.modeling_owlvit.OwlViTOutput
或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
) — 词汇表中输入序列标记的索引。 可以使用 AutoTokenizer 获取索引。 更多详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。 什么是输入 ID? - attention_mask (
torch.Tensor
类型为(batch_size, sequence_length)
, 可选) — 掩码以避免对填充标记索引执行注意力。掩码值在[0, 1]
中选择:- 1 表示 未被掩盖 的标记,
- 0 表示 被掩盖 的标记。 什么是注意力掩码?
- pixel_values (
torch.FloatTensor
类型为(batch_size, num_channels, height, width)
) — 像素值。 - return_loss (
bool
, 可选) — 是否返回对比损失。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回 ModelOutput 而不是普通元组。
返回
transformers.models.owlvit.modeling_owlvit.OwlViTOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.owlvit.modeling_owlvit.OwlViTOutput
或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或 config.return_dict=False
),包含根据配置 (<class 'transformers.models.owlvit.configuration_owlvit.OwlViTConfig'>
) 和输入的不同元素。
- loss (
torch.FloatTensor
类型为(1,)
, 可选,当return_loss
为True
时返回) — 图像-文本相似性的对比损失。 - logits_per_image (
torch.FloatTensor
类型为(image_batch_size, text_batch_size)
) —image_embeds
和text_embeds
之间的缩放点积分数。这表示图像-文本相似性分数。 - logits_per_text (
torch.FloatTensor
类型为(text_batch_size, image_batch_size)
) —text_embeds
和image_embeds
之间的缩放点积分数。这表示文本-图像相似性分数。 - text_embeds (
torch.FloatTensor
类型为(batch_size * num_max_text_queries, output_dim
) — 通过将投影层应用于 OwlViTTextModel 的池化输出获得的文本嵌入。 - image_embeds (
torch.FloatTensor
类型为(batch_size, output_dim
) — 通过将投影层应用于 OwlViTVisionModel 的池化输出获得的图像嵌入。 - text_model_output (Tuple
BaseModelOutputWithPooling
) — OwlViTTextModel 的输出。 - vision_model_output (
BaseModelOutputWithPooling
) — OwlViTVisionModel 的输出。
OwlViTModel 前向方法,覆盖 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, OwlViTModel
>>> model = OwlViTModel.from_pretrained("google/owlvit-base-patch32")
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(text=[["a photo of a cat", "a photo of a dog"]], images=image, return_tensors="pt")
>>> outputs = model(**inputs)
>>> logits_per_image = outputs.logits_per_image # this is the image-text similarity score
>>> probs = logits_per_image.softmax(dim=1) # we can take the softmax to get the label probabilities
get_text_features
< 源代码 >( input_ids: 可选 = 无 attention_mask: 可选 = 无 output_attentions: 可选 = 无 output_hidden_states: 可选 = 无 return_dict: 可选 = 无 ) → text_features (形状为 (batch_size, output_dim
) 的 torch.FloatTensor
)
参数
- input_ids (形状为
(batch_size * num_max_text_queries, sequence_length)
的torch.LongTensor
) — 词汇表中输入序列标记的索引。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。 什么是输入 ID? - attention_mask (形状为
(batch_size, num_max_text_queries, sequence_length)
的torch.Tensor
,可选) — 掩码,用于避免对填充标记索引执行注意力。在[0, 1]
中选择的掩码值:- 未屏蔽标记为 1,
- 已屏蔽标记为 0。 什么是注意力掩码?
- output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, *可选*) — 是否返回 ModelOutput 而不是普通的元组。
返回
text_features (形状为 (batch_size, output_dim
) 的 torch.FloatTensor
)
通过将投影层应用于 OwlViTTextModel 的池化输出获得的文本嵌入。
OwlViTModel 前向方法,覆盖 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> from transformers import AutoProcessor, OwlViTModel
>>> model = OwlViTModel.from_pretrained("google/owlvit-base-patch32")
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> inputs = processor(
... text=[["a photo of a cat", "a photo of a dog"], ["photo of a astranaut"]], return_tensors="pt"
... )
>>> text_features = model.get_text_features(**inputs)
get_image_features
< source >( pixel_values: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → image_features (形状为 (batch_size, output_dim
) 的 torch.FloatTensor
)
参数
- pixel_values (形状为
(batch_size, num_channels, height, width)
的torch.FloatTensor
) — 像素值。 - output_attentions (
bool
, *可选*) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, *可选*) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, *可选*) — 是否返回 ModelOutput 而不是普通的元组。
返回
image_features (形状为 (batch_size, output_dim
) 的 torch.FloatTensor
)
通过将投影层应用于 OwlViTVisionModel 的池化输出获得的图像嵌入。
OwlViTModel 前向方法,覆盖 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, OwlViTModel
>>> model = OwlViTModel.from_pretrained("google/owlvit-base-patch32")
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(images=image, return_tensors="pt")
>>> image_features = model.get_image_features(**inputs)
OwlViTTextModel
forward
< source >( input_ids: Tensor attention_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor
形状为(batch_size * num_max_text_queries, sequence_length)
) — 词汇表中输入序列标记的索引。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。 什么是输入 ID? - attention_mask (
torch.Tensor
形状为(batch_size, num_max_text_queries, sequence_length)
, 可选) — 掩码以避免对填充标记索引执行注意力。在[0, 1]
中选择的掩码值:- 1 表示 未被掩码 的标记,
- 0 表示 被掩码 的标记。 什么是注意力掩码?
- output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回 ModelOutput 而不是普通元组。
返回
transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPooling 或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或 config.return_dict=False
)包含根据配置 (<class 'transformers.models.owlvit.configuration_owlvit.OwlViTTextConfig'>
) 和输入的不同元素。
-
last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
) — 模型最后一层输出的隐藏状态序列。 -
pooler_output (形状为
(batch_size, hidden_size)
的torch.FloatTensor
) — 序列第一个标记(分类标记)的最后一层隐藏状态,经过用于辅助预训练任务的层 further processing 后。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类标记。线性层权重在预训练期间从下一个句子预测(分类)目标中训练得到。 -
hidden_states (
tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
的元组(如果模型有嵌入层,则为嵌入的输出 + 每个层的输出)。模型在每层输出处的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
的元组(每层一个)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
OwlViTTextModel forward 方法,覆盖了 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> from transformers import AutoProcessor, OwlViTTextModel
>>> model = OwlViTTextModel.from_pretrained("google/owlvit-base-patch32")
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> inputs = processor(
... text=[["a photo of a cat", "a photo of a dog"], ["photo of a astranaut"]], return_tensors="pt"
... )
>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output # pooled (EOS token) states
OwlViTVisionModel
forward
< source >( pixel_values: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
参数
- pixel_values (
torch.FloatTensor
类型为(batch_size, num_channels, height, width)
) — 像素值。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回 ModelOutput 而不是普通元组。
返回
transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPooling 或一个 torch.FloatTensor
元组(如果传递 return_dict=False
或 config.return_dict=False
),包含根据配置 (<class 'transformers.models.owlvit.configuration_owlvit.OwlViTVisionConfig'>
) 和输入的不同元素。
-
last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
) — 模型最后一层输出的隐藏状态序列。 -
pooler_output (形状为
(batch_size, hidden_size)
的torch.FloatTensor
) — 序列第一个标记(分类标记)的最后一层隐藏状态,经过用于辅助预训练任务的层 further processing 后。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类标记。线性层权重在预训练期间从下一个句子预测(分类)目标中训练得到。 -
hidden_states (
tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
的元组(如果模型有嵌入层,则为嵌入的输出 + 每个层的输出)。模型在每层输出处的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
的元组(每层一个)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
OwlViTVisionModel 的 forward 方法重写了 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, OwlViTVisionModel
>>> model = OwlViTVisionModel.from_pretrained("google/owlvit-base-patch32")
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(images=image, return_tensors="pt")
>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output # pooled CLS states
OwlViTForObjectDetection
forward
< source >( input_ids: Tensor pixel_values: FloatTensor attention_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → transformers.models.owlvit.modeling_owlvit.OwlViTObjectDetectionOutput
或 tuple(torch.FloatTensor)
参数
- pixel_values (
torch.FloatTensor
形状为(batch_size, num_channels, height, width)
) — 像素值。 - input_ids (
torch.LongTensor
形状为(batch_size * num_max_text_queries, sequence_length)
, 可选) — 词汇表中输入序列标记的索引。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。 什么是输入 ID?。 - attention_mask (
torch.Tensor
形状为(batch_size, num_max_text_queries, sequence_length)
, 可选) — 掩码以避免对填充标记索引执行注意力。在[0, 1]
中选择的掩码值:- 1 表示 未屏蔽 的标记,
- 0 表示 已屏蔽 的标记。 什么是注意力掩码?
- output_hidden_states (
bool
, 可选) — 是否返回最后一个隐藏状态。有关详细信息,请参阅返回张量下的text_model_last_hidden_state
和vision_model_last_hidden_state
。 - return_dict (
bool
, 可选) — 是否返回 ModelOutput 而不是普通元组。
返回
transformers.models.owlvit.modeling_owlvit.OwlViTObjectDetectionOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.owlvit.modeling_owlvit.OwlViTObjectDetectionOutput
或 torch.FloatTensor
的元组(如果传递了 return_dict=False
或 config.return_dict=False
)包含根据配置 (<class 'transformers.models.owlvit.configuration_owlvit.OwlViTConfig'>
) 和输入的不同元素。
- loss (
torch.FloatTensor
形状为(1,)
,可选,在提供labels
时返回)) — 总损失,作为类预测的负对数似然(交叉熵)和边界框损失的线性组合。后者定义为 L1 损失和广义尺度不变 IoU 损失的线性组合。 - loss_dict (
Dict
, 可选) — 包含各个损失的字典。对日志记录很有用。 - logits (
torch.FloatTensor
形状为(batch_size, num_patches, num_queries)
) — 所有查询的分类 logits(包括无对象)。 - pred_boxes (形状为
(batch_size, num_patches, 4)
的torch.FloatTensor
)— 所有查询的归一化边界框坐标,表示为 (center_x, center_y, width, height)。这些值在 [0, 1] 范围内进行归一化,相对于批次中每个图像的大小(忽略可能的填充)。您可以使用 post_process_object_detection() 来检索未归一化的边界框。 - text_embeds (形状为
(batch_size, num_max_text_queries, output_dim
) 的torch.FloatTensor
)— 通过将投影层应用于 OwlViTTextModel 的池化输出获得的文本嵌入。 - image_embeds (形状为
(batch_size, patch_size, patch_size, output_dim
) 的torch.FloatTensor
)— OwlViTVisionModel 的池化输出。OWL-ViT 将图像表示为一组图像块,并为每个块计算图像嵌入。 - class_embeds (形状为
(batch_size, num_patches, hidden_size)
的torch.FloatTensor
)— 所有图像块的类别嵌入。OWL-ViT 将图像表示为一组图像块,其中图像块的总数为 (image_size / patch_size)**2。 - text_model_output (Tuple
BaseModelOutputWithPooling
) — OwlViTTextModel 的输出。 - vision_model_output (
BaseModelOutputWithPooling
) — OwlViTVisionModel 的输出。
OwlViTForObjectDetection 的前向方法,重写了 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> import requests
>>> from PIL import Image
>>> import torch
>>> from transformers import AutoProcessor, OwlViTForObjectDetection
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch32")
>>> model = OwlViTForObjectDetection.from_pretrained("google/owlvit-base-patch32")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> texts = [["a photo of a cat", "a photo of a dog"]]
>>> inputs = processor(text=texts, images=image, return_tensors="pt")
>>> outputs = model(**inputs)
>>> # Target image sizes (height, width) to rescale box predictions [batch_size, 2]
>>> target_sizes = torch.Tensor([image.size[::-1]])
>>> # Convert outputs (bounding boxes and class logits) to final bounding boxes and scores
>>> results = processor.post_process_object_detection(
... outputs=outputs, threshold=0.1, target_sizes=target_sizes
... )
>>> i = 0 # Retrieve predictions for the first image for the corresponding text queries
>>> text = texts[i]
>>> boxes, scores, labels = results[i]["boxes"], results[i]["scores"], results[i]["labels"]
>>> for box, score, label in zip(boxes, scores, labels):
... box = [round(i, 2) for i in box.tolist()]
... print(f"Detected {text[label]} with confidence {round(score.item(), 3)} at location {box}")
Detected a photo of a cat with confidence 0.707 at location [324.97, 20.44, 640.58, 373.29]
Detected a photo of a cat with confidence 0.717 at location [1.46, 55.26, 315.55, 472.17]
image_guided_detection
< 源代码 >( pixel_values: FloatTensor query_pixel_values: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) → transformers.models.owlvit.modeling_owlvit.OwlViTImageGuidedObjectDetectionOutput
或 tuple(torch.FloatTensor)
参数
- pixel_values (形状为
(batch_size, num_channels, height, width)
的torch.FloatTensor
)— 像素值。 - query_pixel_values (形状为
(batch_size, num_channels, height, width)
的torch.FloatTensor
)— 要检测的查询图像的像素值。为每个目标图像传递一个查询图像。 - output_attentions (
bool
,可选)— 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选)— 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回 ModelOutput 而不是普通元组。
返回
transformers.models.owlvit.modeling_owlvit.OwlViTImageGuidedObjectDetectionOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.owlvit.modeling_owlvit.OwlViTImageGuidedObjectDetectionOutput
或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或 config.return_dict=False
),包含根据配置 (<class 'transformers.models.owlvit.configuration_owlvit.OwlViTConfig'>
) 和输入而定的各种元素。
- logits (
torch.FloatTensor
形状为(batch_size, num_patches, num_queries)
) — 所有查询的分类 logits(包括无对象)。 - target_pred_boxes (
torch.FloatTensor
形状为(batch_size, num_patches, 4)
) — 所有查询的归一化边界框坐标,表示为 (center_x, center_y, width, height)。这些值在 [0, 1] 范围内归一化,相对于批次中每个目标图像的大小(忽略可能的填充)。您可以使用 post_process_object_detection() 来检索未归一化的边界框。 - query_pred_boxes (
torch.FloatTensor
形状为(batch_size, num_patches, 4)
) — 所有查询的归一化边界框坐标,表示为 (center_x, center_y, width, height)。这些值在 [0, 1] 范围内归一化,相对于批次中每个查询图像的大小(忽略可能的填充)。您可以使用 post_process_object_detection() 来检索未归一化的边界框。 - image_embeds (形状为
(batch_size, patch_size, patch_size, output_dim
) 的torch.FloatTensor
)— OwlViTVisionModel 的池化输出。OWL-ViT 将图像表示为一组图像块,并为每个块计算图像嵌入。 - query_image_embeds (
torch.FloatTensor
形状为(batch_size, patch_size, patch_size, output_dim
) — OwlViTVisionModel 的池化输出。OWL-ViT 将图像表示为一组图像块,并为每个块计算图像嵌入。 - class_embeds (形状为
(batch_size, num_patches, hidden_size)
的torch.FloatTensor
)— 所有图像块的类别嵌入。OWL-ViT 将图像表示为一组图像块,其中图像块的总数为 (image_size / patch_size)**2。 - text_model_output (Tuple
BaseModelOutputWithPooling
) — OwlViTTextModel 的输出。 - vision_model_output (
BaseModelOutputWithPooling
) — OwlViTVisionModel 的输出。
OwlViTForObjectDetection 的前向方法,重写了 __call__
特殊方法。
虽然前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
例子
>>> import requests
>>> from PIL import Image
>>> import torch
>>> from transformers import AutoProcessor, OwlViTForObjectDetection
>>> processor = AutoProcessor.from_pretrained("google/owlvit-base-patch16")
>>> model = OwlViTForObjectDetection.from_pretrained("google/owlvit-base-patch16")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> query_url = "http://images.cocodataset.org/val2017/000000001675.jpg"
>>> query_image = Image.open(requests.get(query_url, stream=True).raw)
>>> inputs = processor(images=image, query_images=query_image, return_tensors="pt")
>>> with torch.no_grad():
... outputs = model.image_guided_detection(**inputs)
>>> # Target image sizes (height, width) to rescale box predictions [batch_size, 2]
>>> target_sizes = torch.Tensor([image.size[::-1]])
>>> # Convert outputs (bounding boxes and class logits) to Pascal VOC format (xmin, ymin, xmax, ymax)
>>> results = processor.post_process_image_guided_detection(
... outputs=outputs, threshold=0.6, nms_threshold=0.3, target_sizes=target_sizes
... )
>>> i = 0 # Retrieve predictions for the first image
>>> boxes, scores = results[i]["boxes"], results[i]["scores"]
>>> for box, score in zip(boxes, scores):
... box = [round(i, 2) for i in box.tolist()]
... print(f"Detected similar object with confidence {round(score.item(), 3)} at location {box}")
Detected similar object with confidence 0.856 at location [10.94, 50.4, 315.8, 471.39]
Detected similar object with confidence 1.0 at location [334.84, 25.33, 636.16, 374.71]