Transformers 文档
ViTMSN
并获得增强的文档体验
开始使用
ViTMSN
概述
ViTMSN 模型由 Mahmoud Assran、Mathilde Caron、Ishan Misra、Piotr Bojanowski、Florian Bordes、Pascal Vincent、Armand Joulin、Michael Rabbat、Nicolas Ballas 在论文 《用于标签高效学习的掩码孪生网络》(Masked Siamese Networks for Label-Efficient Learning) 中提出。该论文提出了一种联合嵌入架构,用于匹配掩码图像块的原型与未掩码图像块的原型。通过这种设置,他们的方法在少样本和极少样本场景下均取得了优异的性能。
论文摘要如下:
我们提出了掩码孪生网络(Masked Siamese Networks, MSN),一个用于学习图像表示的自监督学习框架。我们的方法将包含随机掩码图像块的图像视图的表示与原始未掩码图像的表示进行匹配。这种自监督预训练策略在应用于 Vision Transformer 时具有特别好的可扩展性,因为网络仅处理未掩码的图像块。因此,MSN 提高了联合嵌入架构的可扩展性,同时生成了具有高语义级别的表示,在少样本图像分类任务中表现出竞争力。例如,在 ImageNet-1K 数据集上,仅使用 5,000 张带注释的图像,我们的基础 MSN 模型就达到了 72.4% 的 top-1 准确率;使用 1% 的 ImageNet-1K 标签,我们达到了 75.7% 的 top-1 准确率,为该基准上的自监督学习设定了新的 SOTA 标准。

该模型由 sayakpaul 贡献。原始代码可以在这里找到。
使用技巧
- MSN(掩码孪生网络)是一种用于 Vision Transformers (ViTs) 自监督预训练的方法。预训练的目标是使未掩码图像视图分配的原型与相同图像的掩码视图分配的原型相匹配。
- 作者仅发布了主干网络(在 ImageNet-1k 上预训练)的预训练权重。因此,要将其用于你自己的图像分类数据集,请使用从 ViTMSNModel 初始化的 ViTMSNForImageClassification 类。有关微调的详细教程,请参考此 notebook。
- MSN 在少样本和极少样本场景中尤其有用。值得注意的是,在微调时,仅使用 1% 的 ImageNet-1K 标签,它就达到了 75.7% 的 top-1 准确率。
使用缩放点积注意力(SDPA)
PyTorch 包含一个原生的缩放点积注意力(SDPA)算子,作为 torch.nn.functional
的一部分。该函数包含了多种实现,可以根据输入和使用的硬件来应用。更多信息请参阅官方文档或GPU 推理页面。
当实现可用时,SDPA 默认用于 `torch>=2.1.1`,但你也可以在 `from_pretrained()` 中设置 `attn_implementation="sdpa"` 来明确请求使用 SDPA。
from transformers import ViTMSNForImageClassification
model = ViTMSNForImageClassification.from_pretrained("facebook/vit-msn-base", attn_implementation="sdpa", torch_dtype=torch.float16)
...
为了获得最佳加速效果,我们建议以半精度(例如 `torch.float16` 或 `torch.bfloat16`)加载模型。
在本地基准测试(A100-40GB, PyTorch 2.3.0, OS Ubuntu 22.04)中,使用 float32
和 facebook/vit-msn-base
模型,我们在推理过程中观察到以下速度提升。
批次大小 | 平均推理时间(毫秒),eager 模式 | 平均推理时间(毫秒),sdpa 模型 | 加速,Sdpa / Eager (x) |
---|---|---|---|
1 | 7 | 6 | 1.17 |
2 | 8 | 6 | 1.33 |
4 | 8 | 6 | 1.33 |
8 | 8 | 6 | 1.33 |
资源
一份官方 Hugging Face 和社区(由 🌎 标志表示)资源的列表,帮助你开始使用 ViT MSN。
如果您有兴趣在此处提交资源,请随时开启 Pull Request,我们将对其进行审查!该资源最好能展示一些新内容,而不是重复现有资源。
ViTMSNConfig
class transformers.ViTMSNConfig
< 源 >( hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.0 attention_probs_dropout_prob = 0.0 initializer_range = 0.02 layer_norm_eps = 1e-06 image_size = 224 patch_size = 16 num_channels = 3 qkv_bias = True **kwargs )
参数
- hidden_size (
int
, 可选, 默认为 768) — 编码器层和池化层的维度。 - num_hidden_layers (
int
, 可选, 默认为 12) — Transformer 编码器中的隐藏层数量。 - num_attention_heads (
int
, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数量。 - intermediate_size (
int
, 可选, 默认为 3072) — Transformer 编码器中“中间”(即前馈)层的维度。 - hidden_act (
str
或function
, 可选, 默认为"gelu"
) — 编码器和池化层中的非线性激活函数(函数或字符串)。如果为字符串,支持"gelu"
、"relu"
、"selu"
和"gelu_new"
。 - hidden_dropout_prob (
float
, 可选, 默认为 0.0) — 嵌入层、编码器和池化层中所有全连接层的丢弃概率。 - attention_probs_dropout_prob (
float
, 可选, 默认为 0.0) — 注意力概率的丢弃率。 - initializer_range (
float
, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。 - layer_norm_eps (
float
, 可选, 默认为 1e-06) — 层归一化层使用的 epsilon 值。 - image_size (
int
, 可选, 默认为 224) — 每张图像的大小(分辨率)。 - patch_size (
int
, 可选, 默认为 16) — 每个图像块的大小(分辨率)。 - num_channels (
int
, 可选, 默认为 3) — 输入通道的数量。 - qkv_bias (
bool
, 可选, 默认为True
) — 是否为 queries、keys 和 values 添加偏置。
这是用于存储 ViTMSNModel 配置的配置类。它用于根据指定的参数实例化一个 ViT MSN 模型,并定义模型架构。使用默认值实例化配置将产生与 ViT facebook/vit_msn_base 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。更多信息请参阅 PretrainedConfig 的文档。
示例
>>> from transformers import ViTMSNModel, ViTMSNConfig
>>> # Initializing a ViT MSN vit-msn-base style configuration
>>> configuration = ViTConfig()
>>> # Initializing a model from the vit-msn-base style configuration
>>> model = ViTMSNModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
ViTMSNModel
class transformers.ViTMSNModel
< 源 >( config: ViTMSNConfig use_mask_token: bool = False )
参数
- config (ViTMSNConfig) — 包含模型所有参数的模型配置类。使用配置文件进行初始化不会加载与模型关联的权重,只会加载配置。要加载模型权重,请查看 from_pretrained() 方法。
- use_mask_token (
bool
, 可选, 默认为False
) — 是否在掩码图像建模中使用掩码标记。
基础的 Vit Msn 模型,输出原始的隐藏状态,顶部没有任何特定的头部。
该模型继承自 PreTrainedModel。请查看超类文档以了解该库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
该模型也是一个 PyTorch torch.nn.Module 子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源 >( pixel_values: typing.Optional[torch.Tensor] = None bool_masked_pos: typing.Optional[torch.BoolTensor] = None head_mask: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None interpolate_pos_encoding: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.BaseModelOutput 或 tuple(torch.FloatTensor)
参数
- pixel_values (
torch.Tensor
,形状为(batch_size, num_channels, image_size, image_size)
, 可选) — 与输入图像对应的张量。像素值可以使用{image_processor_class}
获得。详情请参阅{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
处理图像)。 - bool_masked_pos (
torch.BoolTensor
,形状为(batch_size, num_patches)
, 可选) — 布尔类型的掩码位置。指示哪些图像块被掩码 (1),哪些没有 (0)。 - head_mask (
torch.Tensor
,形状为(num_heads,)
或(num_layers, num_heads)
, 可选) — 用于将自注意力模块中选定的头置零的掩码。掩码值在[0, 1]
范围内选择:- 1 表示该头未被掩码,
- 0 表示该头已被掩码。
- output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。更多细节请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。更多细节请参阅返回张量下的hidden_states
。 - interpolate_pos_encoding (
bool
, 可选) — 是否对预训练的位置编码进行插值。 - return_dict (
bool
, 可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.modeling_outputs.BaseModelOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutput 或一个 torch.FloatTensor
的元组 (如果传递了 return_dict=False
或 config.return_dict=False
),包含根据配置 (ViTMSNConfig) 和输入而定的各种元素。
-
last_hidden_state (
torch.FloatTensor
, 形状为(batch_size, sequence_length, hidden_size)
) — 模型最后一层输出的隐藏状态序列。 -
hidden_states (
tuple(torch.FloatTensor)
, 可选, 当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入层的输出,另外每个层一个用于其输出),形状为(batch_size, sequence_length, hidden_size)
。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor)
, 可选, 当传递output_attentions=True
或config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
ViTMSNModel 的 forward 方法重写了 __call__
特殊方法。
虽然前向传播的流程需要在此函数内定义,但之后应调用 Module
实例而不是此函数,因为前者会处理预处理和后处理步骤,而后者会默默地忽略它们。
示例
>>> from transformers import AutoImageProcessor, ViTMSNModel
>>> import torch
>>> from PIL import Image
>>> import requests
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> image_processor = AutoImageProcessor.from_pretrained("facebook/vit-msn-small")
>>> model = ViTMSNModel.from_pretrained("facebook/vit-msn-small")
>>> inputs = image_processor(images=image, return_tensors="pt")
>>> with torch.no_grad():
... outputs = model(**inputs)
>>> last_hidden_states = outputs.last_hidden_state
ViTMSNForImageClassification
class transformers.ViTMSNForImageClassification
< 源 >( config: ViTMSNConfig )
参数
- config (ViTMSNConfig) — 包含模型所有参数的模型配置类。使用配置文件进行初始化不会加载与模型关联的权重,只会加载配置。要加载模型权重,请查看 from_pretrained() 方法。
带有图像分类头的 Vit Msn 模型,例如用于 ImageNet。
该模型继承自 PreTrainedModel。请查看超类文档以了解该库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
该模型也是一个 PyTorch torch.nn.Module 子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源 >( pixel_values: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None interpolate_pos_encoding: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.ImageClassifierOutput 或 tuple(torch.FloatTensor)
参数
- pixel_values (
torch.Tensor
,形状为(batch_size, num_channels, image_size, image_size)
, 可选) — 与输入图像对应的张量。像素值可以使用{image_processor_class}
获得。详情请参阅{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
处理图像)。 - head_mask (
torch.Tensor
,形状为(num_heads,)
或(num_layers, num_heads)
, 可选) — 用于将自注意力模块中选定的头置零的掩码。掩码值在[0, 1]
范围内选择:- 1 表示该头未被掩码,
- 0 表示该头已被掩码。
- labels (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于计算掩码语言建模损失的标签。索引应在[0, ..., config.vocab_size]
范围内或为 -100(请参阅input_ids
文档字符串)。索引设置为-100
的词元将被忽略(掩码),损失仅针对标签在[0, ..., config.vocab_size]
范围内的词元进行计算。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。更多详情请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。更多详情请参阅返回张量下的hidden_states
。 - interpolate_pos_encoding (
bool
, 可选) — 是否对预训练的位置编码进行插值。 - return_dict (
bool
, 可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.modeling_outputs.ImageClassifierOutput 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.ImageClassifierOutput 或一个 torch.FloatTensor
元组(如果传递了 return_dict=False
或 config.return_dict=False
),包含根据配置(ViTMSNConfig)和输入的不同元素。
-
loss (形状为
(1,)
的torch.FloatTensor
,可选,当提供labels
时返回) — 分类损失(如果 config.num_labels==1,则为回归损失)。 -
logits (形状为
(batch_size, config.num_labels)
的torch.FloatTensor
) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor)
, 可选, 当传递output_hidden_states=True
或config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入层的输出,+ 每个阶段的输出各一个),形状为(batch_size, sequence_length, hidden_size)
。模型在每个阶段输出的隐藏状态(也称为特征图)。 -
attentions (
tuple(torch.FloatTensor)
, 可选, 当传递output_attentions=True
或config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, patch_size, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
ViTMSNForImageClassification 的前向方法,重写了 __call__
特殊方法。
虽然前向传播的流程需要在此函数内定义,但之后应调用 Module
实例而不是此函数,因为前者会处理预处理和后处理步骤,而后者会默默地忽略它们。
示例
>>> from transformers import AutoImageProcessor, ViTMSNForImageClassification
>>> import torch
>>> from PIL import Image
>>> import requests
>>> torch.manual_seed(2)
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> image_processor = AutoImageProcessor.from_pretrained("facebook/vit-msn-small")
>>> model = ViTMSNForImageClassification.from_pretrained("facebook/vit-msn-small")
>>> inputs = image_processor(images=image, return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
tusker