Transformers 文档

金字塔视觉Transformer (PVT)

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

金字塔视觉Transformer (PVT)

概述

PVT 模型由王文海、谢恩泽、李翔、范登平、宋开涛、梁定、陆 Tong、罗平、邵岭在《金字塔视觉Transformer:一种通用的无卷积密集预测骨干网络》 ( Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions ) 中提出。PVT 是一种视觉Transformer,它利用金字塔结构使其成为密集预测任务的有效骨干网络。具体来说,它允许使用更细粒度的输入(每个块 4 x 4 像素),同时在Transformer 深入时缩短序列长度,从而降低计算成本。此外,空间缩减注意力(SRA)层用于在学习高分辨率特征时进一步减少资源消耗。

该论文的摘要是如下:

尽管卷积神经网络(CNN)在计算机视觉领域取得了巨大成功,但本工作研究了一种更简单、无需卷积的骨干网络,可用于许多密集预测任务。与最近提出的专为图像分类设计的视觉Transformer(ViT)不同,我们引入了金字塔视觉Transformer(PVT),它克服了将Transformer移植到各种密集预测任务的难题。与现有技术相比,PVT 具有多个优点。与通常产生低分辨率输出并导致高计算和内存成本的 ViT 不同,PVT 不仅可以训练图像的密集分区以实现高输出分辨率(这对于密集预测很重要),而且使用渐进收缩金字塔来减少大特征图的计算量。PVT 继承了 CNN 和 Transformer 的优点,使其成为无需卷积的各种视觉任务的统一骨干网络,可以作为 CNN 骨干网络的直接替代品。我们通过大量实验验证了 PVT,表明它可以提高许多下游任务的性能,包括目标检测、实例分割和语义分割。例如,在参数数量相当的情况下,PVT+RetinaNet 在 COCO 数据集上实现了 40.4 AP,超过 ResNet50+RetinaNet (36.3 AP) 4.1 个绝对 AP(见图 2)。我们希望 PVT 可以作为像素级预测的替代和有用的骨干网络,并促进未来的研究。

此模型由 Xrenya 贡献。原始代码可以在 此处 找到。

  • ImageNet-1K 上的 PVTv1
模型变体 规模 Acc@1 参数量 (M)
PVT-Tiny 224 75.1 13.2
PVT-Small 224 79.8 24.5
PVT-Medium 224 81.2 44.2
PVT-Large 224 81.7 61.4

PvtConfig

class transformers.PvtConfig

< >

( image_size: int = 224 num_channels: int = 3 num_encoder_blocks: int = 4 depths: List = [2, 2, 2, 2] sequence_reduction_ratios: List = [8, 4, 2, 1] hidden_sizes: List = [64, 128, 320, 512] patch_sizes: List = [4, 2, 2, 2] strides: List = [4, 2, 2, 2] num_attention_heads: List = [1, 2, 5, 8] mlp_ratios: List = [8, 8, 4, 4] hidden_act: Mapping = 'gelu' hidden_dropout_prob: float = 0.0 attention_probs_dropout_prob: float = 0.0 initializer_range: float = 0.02 drop_path_rate: float = 0.0 layer_norm_eps: float = 1e-06 qkv_bias: bool = True num_labels: int = 1000 **kwargs )

参数

  • image_size (int, 可选, 默认值: 224) — 输入图像的大小
  • num_channels (int, 可选, 默认值: 3) — 输入通道的数量。
  • num_encoder_blocks (int, 可选, 默认值: 4) — 编码器块的数量 (例如: Mix Transformer 编码器中的阶段数)。
  • depths (List[int], 可选, 默认值: [2, 2, 2, 2]) — 每个编码器块中的层数。
  • sequence_reduction_ratios (List[int], 可选, 默认值: [8, 4, 2, 1]) — 每个编码器块中的序列缩减比率。
  • hidden_sizes (List[int]可选,默认为 [64, 128, 320, 512]) — 每个编码器块的维度。
  • patch_sizes (List[int]可选,默认为 [4, 2, 2, 2]) — 每个编码器块之前的块大小。
  • strides (List[int]可选,默认为 [4, 2, 2, 2]) — 每个编码器块之前的步幅。
  • num_attention_heads (List[int]可选,默认为 [1, 2, 5, 8]) — Transformer 编码器每个块中每个注意力层的注意力头数。
  • mlp_ratios (List[int]可选,默认为 [8, 8, 4, 4]) — 编码器块中 Mix FFN 的隐藏层大小与输入层大小之比。
  • hidden_act (strfunction可选,默认为 "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。 如果是字符串,则支持 "gelu""relu""selu""gelu_new"
  • hidden_dropout_prob (float可选,默认为 0.0) — 嵌入、编码器和池化器中所有全连接层的丢弃概率。
  • attention_probs_dropout_prob (float, *可选*,默认为 0.0) — 注意力概率的 dropout 比率。
  • initializer_range (float, *可选*,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • drop_path_rate (float, *可选*,默认为 0.0) — 随机深度的 dropout 概率,用于 Transformer 编码器的块中。
  • layer_norm_eps (float, *可选*,默认为 1e-06) — 层归一化层使用的 epsilon。
  • qkv_bias (bool, *可选*,默认为 True) — 是否应向查询、键和值添加可学习的偏差。
  • num_labels (‘int’, *可选*,默认为 1000) — 类别数量。

这是用于存储 PvtModel 配置的配置类。 它用于根据指定的参数实例化 Pvt 模型,定义模型架构。 使用默认值实例化配置将产生与 Pvt Xrenya/pvt-tiny-224 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import PvtModel, PvtConfig

>>> # Initializing a PVT Xrenya/pvt-tiny-224 style configuration
>>> configuration = PvtConfig()

>>> # Initializing a model from the Xrenya/pvt-tiny-224 style configuration
>>> model = PvtModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

PvtImageProcessor

transformers.PvtImageProcessor

< >

( do_resize: bool = True size: Optional = None resample: Resampling = <Resampling.BILINEAR: 2> do_rescale: bool = True rescale_factor: Union = 0.00392156862745098 do_normalize: bool = True image_mean: Union = None image_std: Union = None **kwargs )

参数

  • do_resize (bool可选,默认为 True) — 是否将图像的(高度,宽度)维度调整为指定的 (size["height"], size["width"])。可以通过 preprocess 方法中的 do_resize 参数覆盖。
  • size (dict可选,默认为 {"height" -- 224, "width": 224}):调整大小后输出图像的大小。可以通过 preprocess 方法中的 size 参数覆盖。
  • resample (PILImageResampling可选,默认为 Resampling.BILINEAR) — 如果调整图像大小,则使用重采样过滤器。可以通过 preprocess 方法中的 resample 参数覆盖。
  • do_rescale (bool可选,默认为 True) — 是否按指定的比例 rescale_factor 重新缩放图像。可以通过 preprocess 方法中的 do_rescale 参数覆盖。
  • rescale_factor (intfloat可选,默认为 1/255) — 如果重新缩放图像,则使用缩放因子。可以通过 preprocess 方法中的 rescale_factor 参数覆盖。
  • do_normalize (bool可选,默认为 True) — 是否对图像进行归一化。 可以通过 preprocess 方法中的 do_normalize 参数覆盖。
  • image_mean (floatList[float]可选,默认为 IMAGENET_DEFAULT_MEAN) — 如果对图像进行归一化,则使用该均值。 这是一个浮点数或浮点数列表,其长度为图像中通道的数量。 可以通过 preprocess 方法中的 image_mean 参数覆盖。
  • image_std (floatList[float]可选,默认为 IMAGENET_DEFAULT_STD) — 如果对图像进行归一化,则使用该标准差。 这是一个浮点数或浮点数列表,其长度为图像中通道的数量。 可以通过 preprocess 方法中的 image_std 参数覆盖。

构造一个 PVT 图像处理器。

预处理

< >

( images: Union do_resize: Optional = None size: Dict = None resample: Resampling = None do_rescale: Optional = None rescale_factor: Optional = None do_normalize: Optional = None image_mean: Union = None image_std: Union = None return_tensors: Union = None data_format: Union = <ChannelDimension.FIRST: 'channels_first'> input_data_format: Union = None )

参数

  • images (ImageInput) — 要预处理的图像。 期望单个或批量的图像,像素值范围为 0 到 255。 如果传入像素值介于 0 和 1 之间的图像,请设置 do_rescale=False
  • do_resize (bool可选,默认为 self.do_resize) — 是否调整图像大小。
  • **size** (``Dict[str, int]``, *可选*, 默认为 ``self.size``) — 格式为 ``{"height": h, "width": w}`` 的字典,指定调整大小后输出图像的大小。
  • **resample** (``PILImageResampling`` 过滤器, *可选*, 默认为 ``self.resample``) — 如果要调整图像大小,例如 ``PILImageResampling.BILINEAR``,则使用 ``PILImageResampling`` 过滤器。 仅在 ``do_resize`` 设置为 ``True`` 时有效。
  • **do_rescale** (``bool``, *可选*, 默认为 ``self.do_rescale``) — 是否在 [0 - 1] 之间重新缩放图像值。
  • **rescale_factor** (``float``, *可选*, 默认为 ``self.rescale_factor``) — 如果 ``do_rescale`` 设置为 ``True``,则使用此重新缩放因子来重新缩放图像。
  • **do_normalize** (``bool``, *可选*, 默认为 ``self.do_normalize``) — 是否对图像进行归一化。
  • **image_mean** (``float`` 或 ``List[float]``, *可选*, 默认为 ``self.image_mean``) — 如果 ``do_normalize`` 设置为 ``True``,则使用此图像均值。
  • **image_std** (``float`` 或 ``List[float]``, *可选*, 默认为 ``self.image_std``) — 如果 ``do_normalize`` 设置为 ``True``,则使用此图像标准差。
  • return_tensors (strTensorType,可选) — 要返回的张量类型。可以是以下之一:
    • 未设置:返回 np.ndarray 的列表。
    • TensorType.TENSORFLOW'tf':返回 tf.Tensor 类型的批次。
    • TensorType.PYTORCH'pt':返回 torch.Tensor 类型的批次。
    • TensorType.NUMPY'np':返回 np.ndarray 类型的批次。
    • TensorType.JAX'jax':返回 jax.numpy.ndarray 类型的批次。
  • data_format (ChannelDimensionstr,可选,默认为 ChannelDimension.FIRST) — 输出图像的通道维度格式。可以是以下之一:
    • "channels_first"ChannelDimension.FIRST:图像为 (num_channels, height, width) 格式。
    • "channels_last"ChannelDimension.LAST:图像为 (height, width, num_channels) 格式。
    • 未设置:使用输入图像的通道维度格式。
  • input_data_format (ChannelDimensionstr,可选) — 输入图像的通道维度格式。如果未设置,则从输入图像推断通道维度格式。可以是以下之一:
    • "channels_first"ChannelDimension.FIRST:图像为 (num_channels, height, width) 格式。
    • "channels_last"ChannelDimension.LAST:图像为 (height, width, num_channels) 格式。
    • "none"ChannelDimension.NONE:图像为 (height, width) 格式。

预处理一张或一批图像。

PvtForImageClassification

transformers.PvtForImageClassification

< >

( config: PvtConfig )

参数

  • config (~PvtConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

Pvt 模型转换器,顶部有一个图像分类头([CLS] 标记的最终隐藏状态之上的线性层),例如用于 ImageNet。

此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取与一般使用和行为相关的所有内容。

forward

< >

( pixel_values: Optional labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.ImageClassifierOutputtuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor 类型为 (batch_size, num_channels, height, width)) — 像素值。像素值可以使用 AutoImageProcessor 获取。有关详细信息,请参阅 PvtImageProcessor.call()
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通的元组。
  • labels (torch.LongTensor 类型为 (batch_size,), 可选) — 用于计算图像分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。如果 config.num_labels == 1,则计算回归损失(均方误差);如果 config.num_labels > 1,则计算分类损失(交叉熵)。

返回值

transformers.modeling_outputs.ImageClassifierOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.ImageClassifierOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),其中包含根据配置 (PvtConfig) 和输入而定的各种元素。

  • losstorch.FloatTensor,形状为 (1,),可选,当提供 labels 时返回)— 分类(如果 config.num_labels==1 则为回归)损失。

  • logitstorch.FloatTensor,形状为 (batch_size, config.num_labels))— 分类(如果 config.num_labels==1 则为回归)分数(SoftMax 之前)。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则一个用于嵌入的输出,+ 一个用于每个阶段的输出),形状为 (batch_size, sequence_length, hidden_size)。模型在每个阶段输出处的隐藏状态(也称为特征图)。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, patch_size, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

PvtForImageClassification 前向方法,覆盖了 __call__ 特殊方法。

尽管前向传递的方法需要在此函数中定义,但之后应该调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, PvtForImageClassification
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("Zetatech/pvt-tiny-224")
>>> model = PvtForImageClassification.from_pretrained("Zetatech/pvt-tiny-224")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
tabby, tabby cat

PvtModel

transformers.PvtModel

< >

( config: PvtConfig )

参数

  • config (~PvtConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

裸 Pvt 编码器,输出原始隐藏状态,顶部没有任何特定头部。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取有关一般使用和行为的所有内容。

forward

< >

( pixel_values: FloatTensor output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.BaseModelOutputtuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor, 形状为 (batch_size, num_channels, height, width)) — 像素值。可以使用 AutoImageProcessor 获取像素值。有关详细信息,请参阅 PvtImageProcessor.call()
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.modeling_outputs.BaseModelOutputtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False)包含根据配置 (PvtConfig) 和输入的各种元素。

  • last_hidden_state (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor) — 模型最后一层输出的隐藏状态序列。

  • hidden_states (tuple(torch.FloatTensor)可选,在传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出,如果模型有嵌入层,+ 一个用于每一层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出处的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor)可选,在传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每一层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

PvtModel forward 方法,重写了 __call__ 特殊方法。

尽管前向传递的方法需要在此函数中定义,但之后应该调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, PvtModel
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("Zetatech/pvt-tiny-224")
>>> model = PvtModel.from_pretrained("Zetatech/pvt-tiny-224")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state
>>> list(last_hidden_states.shape)
[1, 50, 512]
< > 在 GitHub 上更新