Transformers 文档

ALIGN

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

ALIGN

PyTorch

概述

ALIGN 模型在 Chao Jia, Yinfei Yang, Ye Xia, Yi-Ting Chen, Zarana Parekh, Hieu Pham, Quoc V. Le, Yunhsuan Sung, Zhen Li, Tom Duerig 的论文 Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision 中提出。ALIGN 是一个多模态视觉和语言模型。它可以用于图像-文本相似度和零样本图像分类。ALIGN 采用双编码器架构,使用 EfficientNet 作为其视觉编码器,BERT 作为其文本编码器,并通过对比学习来学习对齐视觉和文本表示。与之前的工作不同,ALIGN 利用了大量的噪声数据集,并表明语料库的规模可以用于通过一个简单的方案实现 SOTA 表示。

论文摘要如下:

预训练表示对于许多 NLP 和感知任务变得至关重要。虽然 NLP 中的表示学习已经过渡到在没有人工标注的原始文本上进行训练,但视觉和视觉-语言表示仍然严重依赖于经过整理的训练数据集,这些数据集成本高昂或需要专业知识。对于视觉应用,表示主要使用带有显式类别标签的数据集(如 ImageNet 或 OpenImages)进行学习。对于视觉-语言,流行的数据集(如 Conceptual Captions、MSCOCO 或 CLIP)都涉及到一个重要的数据收集(和清理)过程。这种昂贵的整理过程限制了数据集的大小,从而阻碍了训练模型的扩展。在本文中,我们利用了一个包含超过十亿图像 alt-text 对的噪声数据集,这些数据集是在没有 Conceptual Captions 数据集中昂贵的过滤或后处理步骤的情况下获得的。一个简单的双编码器架构学习使用对比损失来对齐图像和文本对的视觉和语言表示。我们表明,我们语料库的规模可以弥补其噪声,并即使使用如此简单的学习方案也能实现最先进的表示。我们的视觉表示在转移到诸如 ImageNet 和 VTAB 等分类任务时,也取得了强大的性能。对齐的视觉和语言表示实现了零样本图像分类,并且即使与更复杂的交叉注意力模型相比,也在 Flickr30K 和 MSCOCO 图像-文本检索基准测试中设置了新的最先进的结果。这些表示还支持使用复杂文本和文本 + 图像查询进行跨模态搜索。

此模型由 Alara Dirik 贡献。原始代码未发布,此实现基于 Kakao Brain 基于原始论文的实现。

使用示例

ALIGN 使用 EfficientNet 获取视觉特征,并使用 BERT 获取文本特征。然后将文本和视觉特征都投影到具有相同维度的潜在空间。投影后的图像和文本特征之间的点积然后用作相似度得分。

AlignProcessorEfficientNetImageProcessorBertTokenizer 包装到单个实例中,以同时编码文本和预处理图像。以下示例展示了如何使用 AlignProcessorAlignModel 获取图像-文本相似度得分。

import requests
import torch
from PIL import Image
from transformers import AlignProcessor, AlignModel

processor = AlignProcessor.from_pretrained("kakaobrain/align-base")
model = AlignModel.from_pretrained("kakaobrain/align-base")

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
candidate_labels = ["an image of a cat", "an image of a dog"]

inputs = processor(images=image ,text=candidate_labels, return_tensors="pt")

with torch.no_grad():
    outputs = model(**inputs)

# this is the image-text similarity score
logits_per_image = outputs.logits_per_image

# we can take the softmax to get the label probabilities
probs = logits_per_image.softmax(dim=1)
print(probs)

资源

以下是 Hugging Face 官方和社区(🌎 表示)资源列表,可帮助您开始使用 ALIGN。

如果您有兴趣提交资源以包含在此处,请随时打开 Pull Request,我们将对其进行审核。该资源最好展示一些新的东西,而不是重复现有资源。

AlignConfig

transformers.AlignConfig

< >

( text_config = None vision_config = None projection_dim = 640 temperature_init_value = 1.0 initializer_range = 0.02 **kwargs )

参数

  • text_config (dict, 可选) — 用于初始化 AlignTextConfig 的配置选项字典。
  • vision_config (dict, 可选) — 用于初始化 AlignVisionConfig 的配置选项字典。
  • projection_dim (int, 可选, 默认为 640) — 文本和视觉投影层的维度。
  • temperature_init_value (float, 可选, 默认为 1.0) — temperature 参数的初始值。默认值与原始 ALIGN 实现保持一致。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态分布初始化器的标准差。
  • kwargs (可选) — 关键字参数字典。

AlignConfig 是用于存储 AlignModel 配置的配置类。它用于根据指定的参数实例化 ALIGN 模型,定义文本模型和视觉模型配置。使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import AlignConfig, AlignModel

>>> # Initializing a AlignConfig with kakaobrain/align-base style configuration
>>> configuration = AlignConfig()

>>> # Initializing a AlignModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

>>> # We can also initialize a AlignConfig from a AlignTextConfig and a AlignVisionConfig
>>> from transformers import AlignTextConfig, AlignVisionConfig

>>> # Initializing ALIGN Text and Vision configurations
>>> config_text = AlignTextConfig()
>>> config_vision = AlignVisionConfig()

>>> config = AlignConfig.from_text_vision_configs(config_text, config_vision)

from_text_vision_configs

< >

( text_config: AlignTextConfig vision_config: AlignVisionConfig **kwargs ) AlignConfig

返回值

AlignConfig

配置对象的一个实例

从 align 文本模型配置和 align 视觉模型配置实例化 AlignConfig(或派生类)。

AlignTextConfig

class transformers.AlignTextConfig

< >

( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 pad_token_id = 0 position_embedding_type = 'absolute' use_cache = True **kwargs )

参数

  • vocab_size (int, 可选, 默认为 30522) — Align 文本模型的词汇表大小。定义了在调用 AlignTextModel 时可以通过 inputs_ids 传递的不同 token 的数量。
  • hidden_size (int, 可选, 默认为 768) — 编码器层和池化器层的维度。
  • num_hidden_layers (int, 可选, 默认为 12) — Transformer 编码器中的隐藏层数。
  • num_attention_heads (int, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数。
  • intermediate_size (int, 可选, 默认为 3072) — Transformer 编码器中“中间”层(通常称为前馈层)的维度。
  • hidden_act (strCallable, 可选, 默认为 "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "gelu""relu""silu""gelu_new"
  • hidden_dropout_prob (float, 可选, 默认为 0.1) — 嵌入层、编码器和池化器中所有全连接层的 dropout 概率。
  • attention_probs_dropout_prob (float, 可选, 默认为 0.1) — 注意力概率的 dropout 比率。
  • max_position_embeddings (int, 可选, 默认为 512) — 此模型可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512 或 1024 或 2048)。
  • type_vocab_size (int, 可选, 默认为 2) — 调用 AlignTextModel 时传递的 token_type_ids 的词汇表大小。
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态分布初始化器的标准差。
  • layer_norm_eps (float, 可选, 默认为 1e-12) — 层归一化层使用的 epsilon 值。
  • pad_token_id (int, 可选, 默认为 0) — Padding token id (填充 token id)。
  • position_embedding_type (str, 可选, 默认为 "absolute") — 位置嵌入的类型。从 "absolute""relative_key""relative_key_query" 中选择一个。对于位置嵌入,请使用 "absolute"。有关 "relative_key" 的更多信息,请参阅 Self-Attention with Relative Position Representations (Shaw et al.)。有关 "relative_key_query" 的更多信息,请参阅 Improve Transformer Models with Better Relative Position Embeddings (Huang et al.) 中的方法 4
  • use_cache (bool, 可选, 默认为 True) — 模型是否应返回最后一次的键/值注意力(并非所有模型都使用)。仅当 config.is_decoder=True 时相关。

这是用于存储 AlignTextModel 配置的配置类。它用于根据指定的参数实例化 ALIGN 文本编码器,定义模型架构。使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构的文本编码器类似的配置。此处的默认值是从 BERT 复制的。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import AlignTextConfig, AlignTextModel

>>> # Initializing a AlignTextConfig with kakaobrain/align-base style configuration
>>> configuration = AlignTextConfig()

>>> # Initializing a AlignTextModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignTextModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

AlignVisionConfig

class transformers.AlignVisionConfig

< >

( num_channels: int = 3 image_size: int = 600 width_coefficient: float = 2.0 depth_coefficient: float = 3.1 depth_divisor: int = 8 kernel_sizes: typing.List[int] = [3, 3, 5, 3, 5, 5, 3] in_channels: typing.List[int] = [32, 16, 24, 40, 80, 112, 192] out_channels: typing.List[int] = [16, 24, 40, 80, 112, 192, 320] depthwise_padding: typing.List[int] = [] strides: typing.List[int] = [1, 2, 2, 2, 1, 2, 1] num_block_repeats: typing.List[int] = [1, 2, 2, 3, 3, 4, 1] expand_ratios: typing.List[int] = [1, 6, 6, 6, 6, 6, 6] squeeze_expansion_ratio: float = 0.25 hidden_act: str = 'swish' hidden_dim: int = 2560 pooling_type: str = 'mean' initializer_range: float = 0.02 batch_norm_eps: float = 0.001 batch_norm_momentum: float = 0.99 drop_connect_rate: float = 0.2 **kwargs )

参数

  • num_channels (int, 可选, 默认为 3) — 输入通道的数量。
  • image_size (int, 可选, 默认为 600) — 输入图像尺寸。
  • width_coefficient (float, 可选, 默认为 2.0) — 每个阶段网络宽度的缩放系数。
  • depth_coefficient (float, 可选, 默认为 3.1) — 每个阶段网络深度的缩放系数。
  • depth_divisor int, 可选, 默认为 8) — 网络宽度的单位。
  • kernel_sizes (List[int], 可选, 默认为 [3, 3, 5, 3, 5, 5, 3]) — 每个块中使用的内核大小列表。
  • in_channels (List[int], 可选, 默认为 [32, 16, 24, 40, 80, 112, 192]) — 用于卷积层中每个块的输入通道大小列表。
  • out_channels (List[int], 可选, 默认为 [16, 24, 40, 80, 112, 192, 320]) — 用于卷积层中每个块的输出通道大小列表。
  • depthwise_padding (List[int], 可选, 默认为 []) — 具有方形填充的块索引列表。
  • strides (List[int], 可选, 默认为 [1, 2, 2, 2, 1, 2, 1]) — 用于卷积层中每个块的步幅大小列表。
  • num_block_repeats (List[int], 可选, 默认为 [1, 2, 2, 3, 3, 4, 1]) — 每个块重复次数的列表。
  • expand_ratios (List[int], 可选, 默认为 [1, 6, 6, 6, 6, 6, 6]) — 每个块的缩放系数列表。
  • squeeze_expansion_ratio (float, 可选, 默认为 0.25) — Squeeze 扩展率。
  • hidden_act (strfunction, 可选, 默认为 "silu") — 每个块中的非线性激活函数(函数或字符串)。如果是字符串,则支持 "gelu""relu""selu""gelu_new""silu""mish"
  • hidden_dim (int, 可选, 默认为 1280) — 分类头之前的层的隐藏维度。
  • pooling_type (strfunction, 可选, 默认为 "mean") — 应用于密集分类头之前的最终池化类型。 可用选项为 ["mean", "max"]
  • initializer_range (float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • batch_norm_eps (float, 可选, 默认为 1e-3) — 批归一化层使用的 epsilon 值。
  • batch_norm_momentum (float, 可选, 默认为 0.99) — 批归一化层使用的动量。
  • drop_connect_rate (float, 可选, 默认为 0.2) — 跳跃连接的 dropout 率。

这是用于存储 AlignVisionModel 配置的配置类。 它用于根据指定的参数实例化 ALIGN 视觉编码器,从而定义模型架构。 使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构的视觉编码器类似的配置。 默认值从 EfficientNet (efficientnet-b7) 复制而来

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。

示例

>>> from transformers import AlignVisionConfig, AlignVisionModel

>>> # Initializing a AlignVisionConfig with kakaobrain/align-base style configuration
>>> configuration = AlignVisionConfig()

>>> # Initializing a AlignVisionModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignVisionModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

AlignProcessor

class transformers.AlignProcessor

< >

( image_processor tokenizer )

参数

  • image_processor (EfficientNetImageProcessor) — 图像处理器是必需的输入。
  • tokenizer ([BertTokenizer, BertTokenizerFast]) — 分词器是必需的输入。

构建一个 ALIGN 处理器,它将 EfficientNetImageProcessorBertTokenizer/BertTokenizerFast 封装到单个处理器中,该处理器同时继承了图像处理器和分词器功能。 有关更多信息,请参见 __call__()decode()。 传递 kwargs 的首选方式是每个模态使用字典,请参见下面的用法示例。

from transformers import AlignProcessor
from PIL import Image
model_id = "kakaobrain/align-base"
processor = AlignProcessor.from_pretrained(model_id)

processor(
    images=your_pil_image,
    text=["What is that?"],
    images_kwargs = {"crop_size": {"height": 224, "width": 224}},
    text_kwargs = {"padding": "do_not_pad"},
    common_kwargs = {"return_tensors": "pt"},
)

batch_decode

< >

( *args **kwargs )

此方法将其所有参数转发到 BertTokenizerFast 的 batch_decode()。 有关更多信息,请参阅此方法的文档字符串。

decode

< >

( *args **kwargs )

此方法将其所有参数转发到 BertTokenizerFast 的 decode()。 有关更多信息,请参阅此方法的文档字符串。

AlignModel

class transformers.AlignModel

< >

( config: AlignConfig )

参数

  • config (AlignConfig) — 具有模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法以加载模型权重。

此模型继承自 PreTrainedModel。 查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头等)。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None pixel_values: typing.Optional[torch.FloatTensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None return_loss: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None )

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。默认情况下,如果您提供填充,填充将被忽略。

    索引可以使用 AutoTokenizer 获取。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详细信息。

    什么是输入 IDs? attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional): 用于避免在填充 token 索引上执行注意力的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 token 未被掩盖
    • 0 表示 token 被掩盖

    什么是注意力掩码? position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional): 每个输入序列 token 在位置嵌入中的位置索引。在范围 [0, config.max_position_embeddings - 1] 中选择。

    什么是位置 IDs? token_type_ids (torch.LongTensor of shape ({0}), optional): 段落 token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 IDs? head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional): 用于使自注意力模块的选定 head 无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 被掩盖

    inputs_embeds (torch.FloatTensor of shape ({0}, hidden_size), optional): (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。 pixel_values (torch.FloatTensor of shape (batch_size, num_channels, height, width)): 像素值。默认情况下,如果您提供填充,填充将被忽略。像素值可以使用 AutoImageProcessor 获取。 请参阅 EfficientNetImageProcessor.call() 以了解详细信息。 return_loss (bool, optional): 是否返回对比损失。 output_attentions (bool, optional): 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions。 output_hidden_states (bool, optional): 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states。 return_dict (bool, optional): 是否返回 ModelOutput 而不是普通元组。

AlignModel 前向方法,重写了 __call__ 特殊方法。

尽管前向传递的配方需要在该函数中定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

get_text_features

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) text_features (torch.FloatTensor of shape (batch_size, output_dim)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。默认情况下,如果您提供填充,填充将被忽略。

    索引可以使用 AutoTokenizer 获取。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详细信息。

    什么是输入 IDs?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional) — 用于避免在填充 token 索引上执行注意力的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 token 未被掩盖
    • 0 表示 token 被掩盖

    什么是注意力掩码?

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 每个输入序列 token 在位置嵌入中的位置索引。在范围 [0, config.max_position_embeddings - 1] 中选择。

    什么是位置 IDs?

  • token_type_ids (torch.LongTensor of shape ({0}), optional) — 段落 token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 句子 A token,
    • 1 对应于 句子 B token。

    什么是 token 类型 IDs?

  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 用于使自注意力模块的选定 head 无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 被掩盖
  • inputs_embeds (torch.FloatTensor of shape ({0}, hidden_size), optional) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。

返回值

text_features (torch.FloatTensor of shape (batch_size, output_dim)

通过将投影层应用于 AlignTextModel 的池化输出而获得的文本嵌入。

AlignModel 前向方法,重写了 __call__ 特殊方法。

尽管前向传递的配方需要在该函数中定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, AlignModel

>>> model = AlignModel.from_pretrained("kakaobrain/align-base")
>>> tokenizer = AutoTokenizer.from_pretrained("kakaobrain/align-base")

>>> inputs = tokenizer(["a photo of a cat", "a photo of a dog"], padding=True, return_tensors="pt")
>>> text_features = model.get_text_features(**inputs)

get_image_features

< >

( pixel_values: typing.Optional[torch.FloatTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) image_features (torch.FloatTensor of shape (batch_size, output_dim)

参数

  • pixel_values (torch.FloatTensor of shape (batch_size, num_channels, height, width)) — 像素值。默认情况下,如果您提供填充,填充将被忽略。像素值可以使用 AutoImageProcessor 获取。 请参阅 EfficientNetImageProcessor.call() 以了解详细信息。
  • output_hidden_states (bool, optional) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通元组。

返回值

image_features (torch.FloatTensor of shape (batch_size, output_dim)

通过将投影层应用于 AlignVisionModel 的池化输出而获得的图像嵌入。

AlignModel 前向方法,重写了 __call__ 特殊方法。

尽管前向传递的配方需要在该函数中定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, AlignModel

>>> model = AlignModel.from_pretrained("kakaobrain/align-base")
>>> processor = AutoProcessor.from_pretrained("kakaobrain/align-base")

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> inputs = processor(images=image, return_tensors="pt")

>>> image_features = model.get_image_features(**inputs)

AlignTextModel

class transformers.AlignTextModel

< >

( config: AlignTextConfig add_pooling_layer: bool = True )

参数

  • config (AlignConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

来自 ALIGN 的文本模型,顶部没有任何 head 或 projection。此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentionstuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。默认情况下,如果您提供填充,填充将被忽略。

    索引可以使用 AutoTokenizer 获取。 请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详细信息。

    什么是输入 IDs?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional) — 用于避免在 padding token 索引上执行 attention 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 未被 Mask 的 token,
    • 0 表示 已被 Mask 的 token。

    什么是 attention masks?

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 每个输入序列 token 在 position embeddings 中的位置索引。在范围 [0, config.max_position_embeddings - 1] 中选择。

    什么是 position IDs?

  • token_type_ids (torch.LongTensor of shape ({0}), optional) — Segment token 索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 sentence A token,
    • 1 对应于 sentence B token。

    什么是 token type IDs?

  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 用于 nullify self-attention 模块中选定 head 的 Mask。Mask 值在 [0, 1] 中选择:

    • 1 表示 head 未被 Mask
    • 0 表示 head 已被 Mask
  • inputs_embeds (torch.FloatTensor of shape ({0}, hidden_size), optional) — (可选)您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部 embedding lookup matrix 更能控制如何将 input_ids 索引转换为关联的向量,这将非常有用。
  • output_attentions (bool, optional) — 是否返回所有 attention 层的 attentions tensors。有关更多详细信息,请参见返回的 tensors 下的 attentions
  • output_hidden_states (bool, optional) — 是否返回所有层的 hidden states。有关更多详细信息,请参见返回的 tensors 下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通的 tuple。

返回值

transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentionstuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或一个 torch.FloatTensor 的 tuple (如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (<class 'transformers.models.align.configuration_align.AlignTextConfig'>) 和输入。

  • last_hidden_state (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size)) — 模型最后一层的输出端的 hidden-states 序列。

  • pooler_output (torch.FloatTensor of shape (batch_size, hidden_size)) — 序列的第一个 token (分类 token) 的最后一层 hidden-state,在通过用于辅助预训练任务的层进行进一步处理之后。例如,对于 BERT 系列模型,这返回通过线性层和 tanh 激活函数处理后的分类 token。线性层权重是从预训练期间的下一个句子预测(分类)目标中训练出来的。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 Tuple (如果模型具有 embedding 层,则为 embedding 的输出 + 每层的输出一个),形状为 (batch_size, sequence_length, hidden_size)

    模型在每层输出端的 Hidden-states,加上可选的初始 embedding 输出。

  • attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的 Tuple (每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    attention softmax 之后的 Attentions 权重,用于计算 self-attention heads 中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=Trueconfig.add_cross_attention=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的 Tuple (每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    decoder 的 cross-attention 层的 Attentions 权重,在 attention softmax 之后,用于计算 cross-attention heads 中的加权平均值。

  • past_key_values (tuple(tuple(torch.FloatTensor)), optional, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 长度为 config.n_layerstuple(torch.FloatTensor) 的 Tuple,每个 tuple 具有 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的 tensors,并且如果 config.is_encoder_decoder=True,则可选地具有 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的附加 tensors。

    包含预先计算的 hidden-states(self-attention 块中的 key 和 values,以及可选地,如果 config.is_encoder_decoder=True,则在 cross-attention 块中),这些 hidden-states 可以用于(请参阅 past_key_values 输入)加速顺序解码。

AlignTextModel forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传递的配方需要在该函数中定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, AlignTextModel

>>> model = AlignTextModel.from_pretrained("kakaobrain/align-base")
>>> tokenizer = AutoTokenizer.from_pretrained("kakaobrain/align-base")

>>> inputs = tokenizer(["a photo of a cat", "a photo of a dog"], padding=True, return_tensors="pt")

>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output  # pooled (EOS token) states

AlignVisionModel

class transformers.AlignVisionModel

< >

( config: AlignVisionConfig )

参数

  • config (AlignConfig) — 带有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

来自 ALIGN 的视觉模型,顶部没有任何 head 或 projection。此模型继承自 PreTrainedModel。查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入 embeddings 大小、剪枝 head 等)。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档,了解与常规用法和行为相关的所有事项。

forward

< >

( pixel_values: typing.Optional[torch.FloatTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttentiontuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor of shape (batch_size, num_channels, height, width)) — 像素值。如果您提供 padding,默认情况下将被忽略。像素值可以使用 AutoImageProcessor 获得。有关详细信息,请参见 EfficientNetImageProcessor.call()
  • output_hidden_states (bool, optional) — 是否返回所有层的 hidden states。有关更多详细信息,请参见返回的 tensors 下的 hidden_states
  • return_dict (bool, optional) — 是否返回 ModelOutput 而不是普通的 tuple。

返回值

transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttentiontuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttention 或一个 torch.FloatTensor 的 tuple (如果传递了 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (<class 'transformers.models.align.configuration_align.AlignVisionConfig'>) 和输入。

  • last_hidden_state (torch.FloatTensor of shape (batch_size, num_channels, height, width)) — 模型最后一层的输出端的 hidden-states 序列。

  • pooler_output (torch.FloatTensor of shape (batch_size, hidden_size)) — 在空间维度上进行 pooling 操作后的最后一层 hidden-state。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 Tuple (如果模型具有 embedding 层,则为 embedding 的输出 + 每层的输出一个),形状为 (batch_size, num_channels, height, width)

    模型在每层输出端的 Hidden-states,加上可选的初始 embedding 输出。

AlignVisionModel forward 方法,覆盖了 __call__ 特殊方法。

尽管前向传递的配方需要在该函数中定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会默默地忽略它们。

示例

>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, AlignVisionModel

>>> model = AlignVisionModel.from_pretrained("kakaobrain/align-base")
>>> processor = AutoProcessor.from_pretrained("kakaobrain/align-base")

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> inputs = processor(images=image, return_tensors="pt")

>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output  # pooled CLS states
< > 在 GitHub 上更新