Transformers 文档

邻域注意力Transformer

Hugging Face's logo
加入Hugging Face社区

并获得增强文档体验

开始使用

邻域注意力转换器

此模型仅处于维护模式,我们不接受任何更改其代码的新PR。如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.40.2。您可以通过运行以下命令来执行此操作: pip install -U transformers==4.40.2

概述

NAT 由 Ali Hassani、Steven Walton、Jiachen Li、Shen Li 和 Humphrey Shi 在 Neighborhood Attention Transformer 中提出。

它是一种基于邻域注意力(Neighborhood Attention)的分层视觉转换器,邻域注意力是一种滑动窗口自注意力模式。

论文中的摘要如下:

我们提出了邻域注意力(NA),这是第一个针对视觉的高效且可扩展的滑动窗口注意力机制。NA 是一种像素级操作,将自注意力(SA)定位到最近的邻域像素,因此与 SA 的二次复杂度相比,它具有线性时间和空间复杂度。滑动窗口模式允许 NA 的感受野在无需额外像素偏移的情况下增长,并且保留了平移等变性,这与 Swin Transformer 的窗口自注意力(WSA)不同。我们开发了 NATTEN(邻域注意力扩展),这是一个具有高效 C++ 和 CUDA 内核的 Python 包,它允许 NA 的运行速度比 Swin 的 WSA 快 40%,同时内存使用量减少 25%。我们进一步提出了邻域注意力转换器(NAT),这是一种基于 NA 的新型分层转换器设计,可提高图像分类和下游视觉性能。NAT 的实验结果具有竞争力;NAT-Tiny 在 ImageNet 上实现了 83.2% 的 top-1 准确率,在 MS-COCO 上实现了 51.4% 的 mAP,在 ADE20K 上实现了 48.4% 的 mIoU,这比尺寸相似的 Swin 模型提高了 1.9% 的 ImageNet 准确率、1.0% 的 COCO mAP 和 2.6% 的 ADE20K mIoU。

drawing 邻域注意力与其他注意力模式的比较。摘自 原始论文

该模型由 Ali Hassani 贡献。原始代码可以在这里找到 here

使用技巧

  • 可以使用 AutoImageProcessor API 来准备模型的图像。
  • NAT 可以用作 骨干网络。当 output_hidden_states = True 时,它将输出 hidden_statesreshaped_hidden_statesreshaped_hidden_states 的形状为 (batch, num_channels, height, width) 而不是 (batch_size, height, width, num_channels)

注意事项

  • NAT 依赖于 NATTEN 的邻域注意力实现。您可以通过参考 shi-labs.com/natten 安装适用于 Linux 的预构建轮子,或通过运行 pip install natten 在您的系统上构建。请注意,后者可能需要一些时间才能编译。NATTEN 目前尚不支持 Windows 设备。
  • 目前仅支持 4 的补丁大小。

资源

一些官方 Hugging Face 和社区(用🌎表示)资源,帮助您开始使用 NAT。

图像分类

如果您有兴趣提交要包含在此处的资源,请随时打开一个 Pull Request,我们将对其进行审查!理想情况下,该资源应展示一些新内容,而不是复制现有的资源。

NatConfig

class transformers.NatConfig

< >

( patch_size = 4 num_channels = 3 embed_dim = 64 depths = [3, 4, 6, 5] num_heads = [2, 4, 8, 16] kernel_size = 7 mlp_ratio = 3.0 qkv_bias = True hidden_dropout_prob = 0.0 attention_probs_dropout_prob = 0.0 drop_path_rate = 0.1 hidden_act = 'gelu' initializer_range = 0.02 layer_norm_eps = 1e-05 layer_scale_init_value = 0.0 out_features = None out_indices = None **kwargs )

参数

  • patch_size (int, 可选,默认为 4) — 每个补丁的大小(分辨率)。注意:目前仅支持补丁大小为 4。
  • num_channels (int可选,默认为 3) — 输入通道数。
  • embed_dim (int可选,默认为 64) — Patch 嵌入的维度。
  • depths (List[int]可选,默认为 [3, 4, 6, 5]) — 编码器每个级别的层数。
  • num_heads (List[int]可选,默认为 [2, 4, 8, 16]) — Transformer 编码器每个层中的注意力头数。
  • kernel_size (int可选,默认为 7) — 邻域注意力核大小。
  • mlp_ratio (float可选,默认为 3.0) — MLP 隐藏维度与嵌入维度的比率。
  • qkv_bias (bool可选,默认为 True) — 是否应将可学习偏差添加到查询、键和值中。
  • hidden_dropout_prob (float可选,默认为 0.0) — 嵌入和编码器中所有全连接层的 dropout 概率。
  • attention_probs_dropout_prob (float可选,默认为 0.0) — 注意力概率的 dropout 比率。
  • drop_path_rate (float可选,默认为 0.1) — 随机深度率。
  • hidden_act (strfunction可选,默认为 "gelu") — 编码器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "
  • initializer_range (float可选,默认为 0.02) — 初始化所有权重矩阵的截断正态初始化器的标准差。
  • layer_norm_eps (float可选,默认为 1e-05) — 层归一化层使用的 epsilon。
  • layer_scale_init_value (float可选,默认为 0.0) — 层缩放的初始值。如果 <=0 则禁用。
  • out_features (List[str]可选) — 如果用作主干,则输出特征的列表。可以是 "stem""stage1""stage2" 等中的任意一个(取决于模型有多少个阶段)。如果未设置且 out_indices 已设置,则默认为相应的阶段。如果未设置且 out_indices 未设置,则默认为最后一个阶段。必须与 stage_names 属性中定义的顺序相同。
  • out_indices (List[int]可选) — 如果用作主干,则输出特征的索引列表。可以是 0、1、2 等中的任意一个(取决于模型有多少个阶段)。如果未设置且 out_features 已设置,则默认为相应的阶段。如果未设置且 out_features 未设置,则默认为最后一个阶段。必须与 stage_names 属性中定义的顺序相同。

这是用于存储 NatModel 配置的配置类。它用于根据指定的参数实例化 Nat 模型,定义模型架构。使用默认值实例化配置将产生与 Nat shi-labs/nat-mini-in1k-224 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档以获取更多信息。

示例

>>> from transformers import NatConfig, NatModel

>>> # Initializing a Nat shi-labs/nat-mini-in1k-224 style configuration
>>> configuration = NatConfig()

>>> # Initializing a model (with random weights) from the shi-labs/nat-mini-in1k-224 style configuration
>>> model = NatModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

NatModel

transformers.NatModel

< >

( config add_pooling_layer = True )

参数

  • config (NatConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

不带任何特定头部,仅输出原始隐藏状态的裸露 Nat 模型转换器。此模型是 PyTorch torch.nn.Module 的子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以获取与一般用法和行为相关的所有事项。

前向传播

< >

( pixel_values: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.deprecated.nat.modeling_nat.NatModelOutputtuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)) — 像素值。可以使用 AutoImageProcessor 获取像素值。有关详细信息,请参阅 ViTImageProcessor.call()
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.models.deprecated.nat.modeling_nat.NatModelOutputtuple(torch.FloatTensor)

一个 transformers.models.deprecated.nat.modeling_nat.NatModelOutputtorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置 (NatConfig) 和输入的不同元素。

  • last_hidden_state (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出的隐藏状态序列。

  • pooler_output (torch.FloatTensor 形状为 (batch_size, hidden_size), 可选, 当传递 add_pooling_layer=True 时返回) — 最后一层隐藏状态的平均池化。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出 + 一个用于每个阶段的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出处的隐藏状态加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个阶段一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

  • reshaped_hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出 + 一个用于每个阶段的输出),形状为 (batch_size, hidden_size, height, width)

    模型在每一层输出处的隐藏状态加上重新整形为包含空间维度的初始嵌入输出。

NatModel 正向方法,覆盖 __call__ 特殊方法。

尽管正向传递的配方需要在此函数中定义,但此后应该调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, NatModel
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("shi-labs/nat-mini-in1k-224")
>>> model = NatModel.from_pretrained("shi-labs/nat-mini-in1k-224")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state
>>> list(last_hidden_states.shape)
[1, 7, 7, 512]

NatForImageClassification

transformers.NatForImageClassification

< >

( config )

参数

  • config (NatConfig) — 模型配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法以加载模型权重。

具有图像分类头的 Nat 模型转换器(最终隐藏状态的 [CLS] 令牌顶部的线性层),例如用于 ImageNet。

此模型是 PyTorch torch.nn.Module 的子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解与一般用法和行为相关的所有事项。

前向传播

< >

( pixel_values: Optional = None labels: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.deprecated.nat.modeling_nat.NatImageClassifierOutputtuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)) — 像素值。可以使用 AutoImageProcessor 获取像素值。有关详细信息,请参阅 ViTImageProcessor.call()
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • labels (torch.LongTensor 形状为 (batch_size,), 可选) — 用于计算图像分类/回归损失的标签。索引应在[0, ..., config.num_labels - 1]中。如果config.num_labels == 1,则计算回归损失(均方误差损失),如果config.num_labels > 1,则计算分类损失(交叉熵损失)。

返回

transformers.models.deprecated.nat.modeling_nat.NatImageClassifierOutputtuple(torch.FloatTensor)

一个transformers.models.deprecated.nat.modeling_nat.NatImageClassifierOutput 或一个torch.FloatTensor的元组(如果传递了return_dict=False或当config.return_dict=False时),包含取决于配置(NatConfig)和输入的各种元素。

  • loss (torch.FloatTensor 形状为 (1,), 可选,在提供labels时返回) — 分类(或如果config.num_labels==1则为回归)损失。

  • logits (torch.FloatTensor 形状为 (batch_size, config.num_labels)) — 分类(或如果config.num_labels==1则为回归)分数(在SoftMax之前)。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出 + 一个用于每个阶段的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出处的隐藏状态加上初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个阶段一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

  • reshaped_hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出 + 一个用于每个阶段的输出),形状为 (batch_size, hidden_size, height, width)

    模型在每一层输出处的隐藏状态加上重新整形为包含空间维度的初始嵌入输出。

NatForImageClassification 的前向方法,覆盖了__call__特殊方法。

尽管正向传递的配方需要在此函数中定义,但此后应该调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoImageProcessor, NatForImageClassification
>>> import torch
>>> from datasets import load_dataset

>>> dataset = load_dataset("huggingface/cats-image", trust_remote_code=True)
>>> image = dataset["test"]["image"][0]

>>> image_processor = AutoImageProcessor.from_pretrained("shi-labs/nat-mini-in1k-224")
>>> model = NatForImageClassification.from_pretrained("shi-labs/nat-mini-in1k-224")

>>> inputs = image_processor(image, return_tensors="pt")

>>> with torch.no_grad():
...     logits = model(**inputs).logits

>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
tiger cat
< > 在 GitHub 上更新