Transformers 文档

FocalNet

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

FocalNet

PyTorch

概述

FocalNet 模型由 Jianwei Yang、Chunyuan Li、Xiyang Dai、Lu Yuan、Jianfeng Gao 在 Focal Modulation Networks 中提出。FocalNets 完全用焦点调制机制取代了自注意力(用于 ViTSwin 等模型),用于视觉中的令牌交互建模。作者声称 FocalNets 在图像分类、目标检测和分割任务上以相似的计算成本优于基于自注意力的模型。

论文摘要如下:

我们提出了焦点调制网络(简称 FocalNets),其中自注意力(SA)被焦点调制机制完全取代,用于视觉中的令牌交互建模。焦点调制包括三个组成部分:(i) 分层语境化,通过堆叠深度卷积层实现,用于编码从短距离到长距离的视觉语境;(ii) 门控聚合,根据每个查询令牌的内容选择性地聚合语境;以及 (iii) 逐元素调制或仿射变换,将聚合的语境注入到查询中。大量的实验表明,FocalNets 在图像分类、目标检测和分割任务上以相似的计算成本优于最先进的 SA 对应模型(例如 Swin 和 Focal Transformers)。具体而言,FocalNets 的微型和基础尺寸在 ImageNet-1K 上分别实现了 82.3% 和 83.9% 的 Top-1 准确率。在 ImageNet-22K 上以 224 分辨率进行预训练后,在 224 和 384 分辨率微调时,分别达到了 86.5% 和 87.3% 的 Top-1 准确率。当迁移到下游任务时,FocalNets 表现出明显的优越性。对于使用 Mask R-CNN 的目标检测,使用 1 倍训练的 FocalNet base 比 Swin 对应模型高出 2.1 个点,并且已经超过了使用 3 倍计划训练的 Swin(49.0 对 48.5)。对于使用 UPerNet 的语义分割,单尺度 FocalNet base 比 Swin 高出 2.4 个点,并且在多尺度下击败了 Swin(50.5 对 49.7)。使用大型 FocalNet 和 Mask2former,我们在 ADE20K 语义分割上实现了 58.5 mIoU,在 COCO 全景分割上实现了 57.9 PQ。使用大型 FocalNet 和 DINO,我们在 COCO minival 和 test-dev 上分别实现了 64.3 和 64.4 mAP,在 Swinv2-G 和 BEIT-3 等更大的基于注意力的模型之上建立了新的 SoTA。

此模型由 nielsr 贡献。原始代码可在 此处 找到。

FocalNetConfig

class transformers.FocalNetConfig

< >

( image_size = 224 patch_size = 4 num_channels = 3 embed_dim = 96 use_conv_embed = False hidden_sizes = [192, 384, 768, 768] depths = [2, 2, 6, 2] focal_levels = [2, 2, 2, 2] focal_windows = [3, 3, 3, 3] hidden_act = 'gelu' mlp_ratio = 4.0 hidden_dropout_prob = 0.0 drop_path_rate = 0.1 use_layerscale = False layerscale_value = 0.0001 use_post_layernorm = False use_post_layernorm_in_modulation = False normalize_modulator = False initializer_range = 0.02 layer_norm_eps = 1e-05 encoder_stride = 32 out_features = None out_indices = None **kwargs )

参数

  • image_size (int, 可选, 默认为 224) — 每张图像的大小(分辨率)。
  • patch_size (int, 可选, 默认为 4) — 嵌入层中每个补丁的大小(分辨率)。
  • num_channels (int, 可选, 默认为 3) — 输入通道数。
  • embed_dim (int, 可选, 默认为 96) — 补丁嵌入的维度。
  • use_conv_embed (bool, 可选, 默认为 False) — 是否使用卷积嵌入。作者指出,使用卷积嵌入通常会提高性能,但默认情况下不使用。
  • hidden_sizes (list[int], 可选, 默认为 [192, 384, 768, 768]) — 每个阶段的维度(隐藏层大小)。
  • depths (list(int), 可选, 默认为 [2, 2, 6, 2]) — 编码器中每个阶段的深度(层数)。
  • focal_levels (list(int), 可选, 默认为 [2, 2, 2, 2]) — 编码器中相应阶段的每层焦点级别数。
  • focal_windows (list(int), 可选, 默认为 [3, 3, 3, 3]) — 编码器中相应阶段的每层焦点窗口大小。
  • hidden_act (strfunction, 可选, 默认为 "gelu") — 编码器中的非线性激活函数(函数或字符串)。如果是字符串,支持 "gelu""relu""selu""gelu_new"
  • mlp_ratio (float, 可选, 默认为 4.0) — MLP 隐藏维度与嵌入维度之比。
  • hidden_dropout_prob (float, 可选, 默认为 0.0) — 嵌入层和编码器中所有全连接层的 dropout 概率。
  • drop_path_rate (float, 可选, 默认为 0.1) — 随机深度率。
  • use_layerscale (bool, 可选, 默认为 False) — 是否在编码器中使用层缩放。
  • layerscale_value (float, 可选, 默认为 0.0001) — 层缩放的初始值。
  • use_post_layernorm (bool, 可选, 默认为 False) — 是否在编码器中使用后置层归一化。
  • use_post_layernorm_in_modulation (bool, 可选, 默认为 False) — 是否在调制层中使用后置层归一化。
  • normalize_modulator (bool, 可选, 默认为 False) — 是否对调制器进行归一化。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-05) — 层归一化层使用的 epsilon。
  • encoder_stride (int, 可选, 默认为 32) — 用于蒙版图像建模的解码器头部中空间分辨率增加的因子。
  • out_features (list[str], 可选) — 如果用作骨干网络,要输出的特征列表。可以是 "stem", "stage1", "stage2" 等(取决于模型有多少个阶段)。如果未设置且 out_indices 已设置,则默认为相应的阶段。如果未设置且 out_indices 未设置,则默认为最后一个阶段。必须与 stage_names 属性中定义的顺序相同。
  • out_indices (list[int], 可选) — 如果用作骨干网络,要输出的特征的索引列表。可以是 0, 1, 2 等(取决于模型有多少个阶段)。如果未设置且 out_features 已设置,则默认为相应的阶段。如果未设置且 out_features 未设置,则默认为最后一个阶段。必须与 stage_names 属性中定义的顺序相同。

这是用于存储 FocalNetModel 配置的配置类。它用于根据指定的参数实例化 FocalNet 模型,定义模型架构。使用默认值实例化配置将生成类似于 FocalNet microsoft/focalnet-tiny 架构的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请参阅 PretrainedConfig 的文档。

示例

>>> from transformers import FocalNetConfig, FocalNetModel

>>> # Initializing a FocalNet microsoft/focalnet-tiny style configuration
>>> configuration = FocalNetConfig()

>>> # Initializing a model (with random weights) from the microsoft/focalnet-tiny style configuration
>>> model = FocalNetModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

FocalNetModel

class transformers.FocalNetModel

< >

( config add_pooling_layer = True use_mask_token = False )

参数

  • config (FocalNetModel) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。
  • add_pooling_layer (bool, 可选, 默认为 True) — 是否添加池化层。
  • use_mask_token (bool, 可选, 默认为 False) — 是否使用掩码令牌进行掩码图像建模。

裸 Focalnet 模型,输出原始隐藏状态,不带任何特定的头部。

此模型继承自 PreTrainedModel。查阅超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其作为常规 PyTorch 模块使用,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( pixel_values: typing.Optional[torch.FloatTensor] = None bool_masked_pos: typing.Optional[torch.BoolTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.focalnet.modeling_focalnet.FocalNetModelOutputtuple(torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, image_size, image_size)torch.FloatTensor, 可选) — 对应于输入图像的张量。像素值可以使用 {image_processor_class} 获取。有关详细信息,请参阅 {image_processor_class}.__call__{processor_class} 使用 {image_processor_class} 进行图像处理)。
  • bool_masked_pos (形状为 (batch_size, num_patches)torch.BoolTensor) — 布尔掩码位置。指示哪些补丁被掩码(1)哪些没有(0)。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通的元组。

返回

transformers.models.focalnet.modeling_focalnet.FocalNetModelOutputtuple(torch.FloatTensor)

一个 transformers.models.focalnet.modeling_focalnet.FocalNetModelOutputtorch.FloatTensor 元组(如果传递 return_dict=Falseconfig.return_dict=False)包含取决于配置 (FocalNetConfig) 和输入的不同元素。

  • last_hidden_state (形状为 (batch_size, sequence_length, hidden_size)torch.FloatTensor, 可选,默认为 None) — 模型最后一层输出的隐藏状态序列。

  • pooler_output (torch.FloatTensor,形状为 (batch_size, hidden_size)可选,当传递 add_pooling_layer=True 时返回) — 最后一层隐藏状态的平均池化。

  • hidden_states (tuple[torch.FloatTensor], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,一个用于嵌入层输出,+ 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • reshaped_hidden_states (tuple(torch.FloatTensor), 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入层输出 + 一个用于每个阶段的输出),形状为 (batch_size, hidden_size, height, width)

    模型在每层输出处的隐藏状态,以及重新调整以包含空间维度的初始嵌入输出。

FocalNetModel 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的实现需要在该函数内部定义,但之后应调用 Module 实例,而不是该函数,因为前者会处理运行预处理和后处理步骤,而后者会默默忽略它们。

示例

FocalNetForMaskedImageModeling

class transformers.FocalNetForMaskedImageModeling

< >

( config )

参数

  • config (FocalNetForMaskedImageModeling) — 包含模型所有参数的模型配置类。使用配置文件初始化并不会加载与模型相关的权重,只加载配置。请查看 from_pretrained() 方法来加载模型权重。

FocalNet 模型,顶部带有一个用于掩码图像建模的解码器。

这遵循了与 SimMIM 中相同的实现。

请注意,我们在 examples directory 中提供了一个脚本,用于在自定义数据上预训练此模型。

此模型继承自 PreTrainedModel。查阅超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其作为常规 PyTorch 模块使用,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( pixel_values: typing.Optional[torch.FloatTensor] = None bool_masked_pos: typing.Optional[torch.BoolTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutput or tuple(torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, image_size, image_size)torch.FloatTensor可选) — 对应于输入图像的张量。像素值可以使用 {image_processor_class} 获取。有关详细信息,请参阅 {image_processor_class}.__call__{processor_class} 使用 {image_processor_class} 处理图像)。
  • bool_masked_pos (形状为 (batch_size, num_patches)torch.BoolTensor) — 布尔掩码位置。指示哪些补丁被掩码 (1),哪些没有 (0)。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutputtuple(torch.FloatTensor)

一个 transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutput 或一个 torch.FloatTensor 元组(如果传入 return_dict=Falseconfig.return_dict=False),包含根据配置 (FocalNetConfig) 和输入的不同元素。

  • loss (torch.FloatTensor,形状为 (1,)可选,当提供 bool_masked_pos 时返回) — 掩码图像建模 (MLM) 损失。

  • reconstruction (torch.FloatTensor,形状为 (batch_size, num_channels, height, width)) — 重构的像素值。

  • hidden_states (tuple[torch.FloatTensor], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,一个用于嵌入层输出,+ 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • reshaped_hidden_states (tuple(torch.FloatTensor), 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入层输出 + 一个用于每个阶段的输出),形状为 (batch_size, hidden_size, height, width)

    模型在每层输出处的隐藏状态,以及重新调整以包含空间维度的初始嵌入输出。

FocalNetForMaskedImageModeling 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的实现需要在该函数内部定义,但之后应调用 Module 实例,而不是该函数,因为前者会处理运行预处理和后处理步骤,而后者会默默忽略它们。

示例

>>> from transformers import AutoImageProcessor, FocalNetConfig, FocalNetForMaskedImageModeling
>>> import torch
>>> from PIL import Image
>>> import requests

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> image_processor = AutoImageProcessor.from_pretrained("microsoft/focalnet-base-simmim-window6-192")
>>> config = FocalNetConfig()
>>> model = FocalNetForMaskedImageModeling(config)

>>> num_patches = (model.config.image_size // model.config.patch_size) ** 2
>>> pixel_values = image_processor(images=image, return_tensors="pt").pixel_values
>>> # create random boolean mask of shape (batch_size, num_patches)
>>> bool_masked_pos = torch.randint(low=0, high=2, size=(1, num_patches)).bool()

>>> outputs = model(pixel_values, bool_masked_pos=bool_masked_pos)
>>> loss, reconstructed_pixel_values = outputs.loss, outputs.logits
>>> list(reconstructed_pixel_values.shape)
[1, 3, 192, 192]

FocalNetForImageClassification

class transformers.FocalNetForImageClassification

< >

( config )

参数

  • config (FocalNetForImageClassification) — 包含模型所有参数的模型配置类。使用配置文件初始化并不会加载与模型相关的权重,只加载配置。请查看 from_pretrained() 方法来加载模型权重。

FocalNet 模型,顶部带有一个图像分类头(池化输出顶部的线性层),例如用于 ImageNet。

此模型继承自 PreTrainedModel。查阅超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。将其作为常规 PyTorch 模块使用,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。

forward

< >

( pixel_values: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutputtuple(torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, image_size, image_size)torch.FloatTensor可选) — 对应于输入图像的张量。像素值可以使用 {image_processor_class} 获取。有关详细信息,请参阅 {image_processor_class}.__call__{processor_class} 使用 {image_processor_class} 处理图像)。
  • labels (形状为 (batch_size,)torch.LongTensor可选) — 用于计算图像分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。如果 config.num_labels == 1,则计算回归损失(均方误差损失),如果 config.num_labels > 1,则计算分类损失(交叉熵损失)。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutputtuple(torch.FloatTensor)

一个 transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutput 或一个 torch.FloatTensor 元组(如果传入 return_dict=Falseconfig.return_dict=False),包含根据配置 (FocalNetConfig) 和输入的不同元素。

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 labels 时返回) — 分类损失(如果 config.num_labels==1,则为回归损失)。

  • logits (形状为 (batch_size, config.num_labels)torch.FloatTensor) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。

  • hidden_states (tuple[torch.FloatTensor], 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(如果模型有嵌入层,一个用于嵌入层输出,+ 一个用于每层输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • reshaped_hidden_states (tuple(torch.FloatTensor), 可选, 当传入 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 元组(一个用于嵌入层输出 + 一个用于每个阶段的输出),形状为 (batch_size, hidden_size, height, width)

    模型在每层输出处的隐藏状态,以及重新调整以包含空间维度的初始嵌入输出。

FocalNetForImageClassification 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传播的实现需要在该函数内部定义,但之后应调用 Module 实例,而不是该函数,因为前者会处理运行预处理和后处理步骤,而后者会默默忽略它们。

示例

>>> from transformers import AutoImageProcessor, FocalNetForImageClassification
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image")
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("microsoft/focalnet-tiny")
>>> model = FocalNetForImageClassification.from_pretrained("microsoft/focalnet-tiny")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
...
< > 在 GitHub 上更新