Transformers 文档

对齐

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

ALIGN

概述

ALIGN 模型由 Chao Jia、Yinfei Yang、Ye Xia、Yi-Ting Chen、Zarana Parekh、Hieu Pham、Quoc V. Le、Yunhsuan Sung、Zhen Li 和 Tom Duerig 在 Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision 一文中提出。ALIGN 是一种多模态视觉和语言模型。它可用于图像-文本相似度和零样本图像分类。ALIGN 采用双编码器架构,以 EfficientNet 作为其视觉编码器,以 BERT 作为其文本编码器,并学习通过对比学习来对齐视觉和文本表示。与先前的工作不同,ALIGN 利用了海量的噪声数据集,并表明可以使用语料库的规模来通过简单的方案实现最先进的表示。

该论文的摘要是:

预训练表示对于许多 NLP 和感知任务变得至关重要。虽然 NLP 中的表示学习已经过渡到对原始文本进行训练而无需人工标注,但视觉和视觉-语言表示仍然严重依赖于经过整理的训练数据集,这些数据集要么价格昂贵,要么需要专业知识。对于视觉应用,表示主要使用具有显式类标签的数据集来学习,例如 ImageNet 或 OpenImages。对于视觉-语言,流行的数据集(如概念字幕、MSCOCO 或 CLIP)都需要非平凡的数据收集(和清理)过程。这种昂贵的整理过程限制了数据集的大小,因此阻碍了训练模型的扩展。在本文中,我们利用了一个包含超过 10 亿个图像替代文本对的噪声数据集,该数据集是在概念字幕数据集中无需昂贵的过滤或后处理步骤而获得的。一个简单的双编码器架构使用对比损失学习对齐图像和文本对的视觉和语言表示。我们表明,即使使用如此简单的学习方案,我们的语料库的规模也可以弥补其噪声,并产生最先进的表示。当转移到图像分类任务(例如 ImageNet 和 VTAB)时,我们的视觉表示实现了强大的性能。对齐的视觉和语言表示实现了零样本图像分类,并在 Flickr30K 和 MSCOCO 图像-文本检索基准测试中创造了新的最先进的结果,即使与更复杂的交叉注意力模型相比也是如此。这些表示还支持使用复杂的文本和文本+图像查询进行跨模态搜索。

此模型由 Alara Dirik 贡献。原始代码未发布,此实现基于基于原始论文的 Kakao Brain 实现。

使用示例

ALIGN 使用 EfficientNet 获取视觉特征,并使用 BERT 获取文本特征。然后,将文本和视觉特征都投影到具有相同维度的潜在空间中。然后,将投影的图像和文本特征之间的点积用作相似度得分。

AlignProcessorEfficientNetImageProcessorBertTokenizer 封装到单个实例中,以对文本进行编码并预处理图像。以下示例展示了如何使用 AlignProcessorAlignModel 获取图像-文本相似度得分。

import requests
import torch
from PIL import Image
from transformers import AlignProcessor, AlignModel

processor = AlignProcessor.from_pretrained("kakaobrain/align-base")
model = AlignModel.from_pretrained("kakaobrain/align-base")

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
candidate_labels = ["an image of a cat", "an image of a dog"]

inputs = processor(images=image ,text=candidate_labels, return_tensors="pt")

with torch.no_grad():
    outputs = model(**inputs)

# this is the image-text similarity score
logits_per_image = outputs.logits_per_image

# we can take the softmax to get the label probabilities
probs = logits_per_image.softmax(dim=1)
print(probs)

资源

官方 Hugging Face 和社区(🌎 表示)资源列表,可帮助您开始使用 ALIGN。

如果您有兴趣提交资源以包含在此处,请随时打开拉取请求,我们将对其进行审核。理想情况下,资源应该展示一些新的内容,而不是重复现有资源。

AlignConfig

transformers.AlignConfig

< >

( text_config = None vision_config = None projection_dim = 640 temperature_init_value = 1.0 initializer_range = 0.02 **kwargs )

参数

  • text_config (dict可选) — 用于初始化 AlignTextConfig 的配置选项字典。
  • vision_config (dict可选) — 用于初始化 AlignVisionConfig 的配置选项字典。
  • projection_dim (int可选,默认为 640) — 文本和视觉投影层的维度。
  • temperature_init_value (float可选,默认为 1.0) — *temperature* 参数的初始值。 默认值与原始 ALIGN 实现中使用的一致。
  • initializer_range (float可选,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • kwargs (可选) — 关键字参数字典。

AlignConfig 是用于存储 AlignModel 配置的配置类。 它用于根据指定参数实例化 ALIGN 模型,定义文本模型和视觉模型的配置。 使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import AlignConfig, AlignModel

>>> # Initializing a AlignConfig with kakaobrain/align-base style configuration
>>> configuration = AlignConfig()

>>> # Initializing a AlignModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

>>> # We can also initialize a AlignConfig from a AlignTextConfig and a AlignVisionConfig
>>> from transformers import AlignTextConfig, AlignVisionConfig

>>> # Initializing ALIGN Text and Vision configurations
>>> config_text = AlignTextConfig()
>>> config_vision = AlignVisionConfig()

>>> config = AlignConfig.from_text_vision_configs(config_text, config_vision)

from_text_vision_configs

< >

( text_config: AlignTextConfig vision_config: AlignVisionConfig **kwargs ) AlignConfig

返回

AlignConfig

配置对象实例

从 align 文本模型配置和 align 视觉模型配置实例化 AlignConfig(或派生类)。

AlignTextConfig

transformers.AlignTextConfig

< >

( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 pad_token_id = 0 position_embedding_type = 'absolute' use_cache = True **kwargs )

参数

  • vocab_size (int, 可选, 默认为 30522) — Align Text 模型的词汇大小。定义了通过调用 AlignTextModel 时传递的 inputs_ids 可以表示的不同标记的数量。
  • hidden_size (int, 可选, 默认为 768) — 编码器层和池化器层的维度。
  • num_hidden_layers (int, 可选, 默认为 12) — Transformer 编码器中的隐藏层数。
  • num_attention_heads (int, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数。
  • intermediate_size (int, 可选, 默认为 3072) — Transformer 编码器中“中间”(通常称为前馈)层的维度。
  • hidden_act (strCallable,可选,默认为 "gelu") — 编码器和池化器中使用的非线性激活函数(函数或字符串)。如果是字符串,则支持 "gelu""relu""silu""gelu_new"
  • hidden_dropout_prob (float,可选,默认为 0.1) — 嵌入层、编码器和池化器中所有全连接层的 dropout 概率。
  • attention_probs_dropout_prob (float,可选,默认为 0.1) — 注意力概率的 dropout 比率。
  • max_position_embeddings (int,可选,默认为 512) — 此模型可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512、1024 或 2048)。
  • type_vocab_size (int,可选,默认为 2) — 调用 AlignTextModel 时传递的 token_type_ids 的词汇表大小。
  • initializer_range (float,可选,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • layer_norm_eps (float,可选,默认为 1e-12) — 层归一化层使用的 epsilon 值。
  • pad_token_id (int可选,默认为 0) — 填充标记 ID。
  • position_embedding_type (str可选,默认为 "absolute") — 位置嵌入类型。从 "absolute""relative_key""relative_key_query" 中选择一个。对于位置嵌入,请使用 "absolute"。有关 "relative_key" 的更多信息,请参阅 Self-Attention with Relative Position Representations (Shaw et al.)。有关 "relative_key_query" 的更多信息,请参阅 Improve Transformer Models with Better Relative Position Embeddings (Huang et al.) 中的“方法 4”。
  • use_cache (bool可选,默认为 True) — 模型是否应返回最后一个键/值注意力(并非所有模型都使用)。仅在 config.is_decoder=True 时相关。

这是用于存储 AlignTextModel 配置的配置类。它用于根据指定的参数实例化 ALIGN 文本编码器,定义模型架构。使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构的文本编码器类似的配置。此处的默认值是从 BERT 复制的。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import AlignTextConfig, AlignTextModel

>>> # Initializing a AlignTextConfig with kakaobrain/align-base style configuration
>>> configuration = AlignTextConfig()

>>> # Initializing a AlignTextModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignTextModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

AlignVisionConfig

transformers.AlignVisionConfig

< >

( num_channels: int = 3 image_size: int = 600 width_coefficient: float = 2.0 depth_coefficient: float = 3.1 depth_divisor: int = 8 kernel_sizes: List = [3, 3, 5, 3, 5, 5, 3] in_channels: List = [32, 16, 24, 40, 80, 112, 192] out_channels: List = [16, 24, 40, 80, 112, 192, 320] depthwise_padding: List = [] strides: List = [1, 2, 2, 2, 1, 2, 1] num_block_repeats: List = [1, 2, 2, 3, 3, 4, 1] expand_ratios: List = [1, 6, 6, 6, 6, 6, 6] squeeze_expansion_ratio: float = 0.25 hidden_act: str = 'swish' hidden_dim: int = 2560 pooling_type: str = 'mean' initializer_range: float = 0.02 batch_norm_eps: float = 0.001 batch_norm_momentum: float = 0.99 drop_connect_rate: float = 0.2 **kwargs )

参数

  • num_channels (int, *可选*, 默认值为 3) — 输入通道的数量。
  • image_size (int, *可选*, 默认值为 600) — 输入图像的尺寸。
  • width_coefficient (float, *可选*, 默认值为 2.0) — 每个阶段网络宽度的缩放系数。
  • depth_coefficient (float, *可选*, 默认值为 3.1) — 每个阶段网络深度的缩放系数。
  • depth_divisor int, 可选, 默认值为 8) — 网络宽度的单位。
  • kernel_sizes (List[int], 可选, 默认值为 [3, 3, 5, 3, 5, 5, 3]) — 每个块中使用的卷积核大小列表。
  • in_channels (List[int], 可选, 默认值为 [32, 16, 24, 40, 80, 112, 192]) — 每个块中用于卷积层的输入通道大小列表。
  • out_channels (List[int], 可选, 默认值为 [16, 24, 40, 80, 112, 192, 320]) — 每个块中用于卷积层的输出通道大小列表。
  • depthwise_padding (List[int], 可选, 默认值为 []) — 具有方形填充的块索引列表。
  • strides (List[int], 可选, 默认值为 [1, 2, 2, 2, 1, 2, 1]) — 每个块中用于卷积层的步幅大小列表。
  • num_block_repeats (List[int], 可选, 默认值为 [1, 2, 2, 3, 3, 4, 1]) — 每个块重复次数的列表。
  • expand_ratios (List[int], 可选, 默认值为 [1, 6, 6, 6, 6, 6, 6]) — 每个块的缩放系数列表。
  • squeeze_expansion_ratio (浮点数, 可选, 默认值为 0.25) — 挤压扩张比率。
  • hidden_act (字符串函数, 可选, 默认值为 "silu") — 每个块中的非线性激活函数(函数或字符串)。 如果是字符串,则支持 "gelu""relu""selu""gelu_new""silu""mish"
  • hidden_dim (整数, 可选, 默认值为 1280) — 分类头之前的层的隐藏维度。
  • pooling_type (字符串函数, 可选, 默认值为 "mean") — 在密集分类头之前应用的最终池化类型。 可用选项包括 ["mean", "max"]
  • initializer_range (浮点数, 可选, 默认值为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • batch_norm_eps (浮点数, 可选, 默认值为 1e-3) — 批归一化层使用的 epsilon 值。
  • batch_norm_momentum (浮点数, 可选, 默认值为 0.99) — 批归一化层使用的动量值。
  • drop_connect_rate (浮点数, 可选, 默认值为 0.2) — 跳过连接的丢弃率。

这是用于存储 AlignVisionModel 配置的配置类。 它用于根据指定的参数实例化 ALIGN 视觉编码器,定义模型架构。 使用默认值实例化配置将产生与 ALIGN kakaobrain/align-base 架构的视觉编码器类似的配置。 默认值是从 EfficientNet (efficientnet-b7) 复制的。

配置对象继承自 PretrainedConfig,可用于控制模型输出。 阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import AlignVisionConfig, AlignVisionModel

>>> # Initializing a AlignVisionConfig with kakaobrain/align-base style configuration
>>> configuration = AlignVisionConfig()

>>> # Initializing a AlignVisionModel (with random weights) from the kakaobrain/align-base style configuration
>>> model = AlignVisionModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

AlignProcessor

class transformers.AlignProcessor

< >

( image_processor tokenizer )

参数

  • image_processor (EfficientNetImageProcessor) — 图像处理器是必需的输入。
  • tokenizer ([BertTokenizer, BertTokenizerFast]) — 分词器是必需的输入。

构造一个 ALIGN 处理器,它将 EfficientNetImageProcessorBertTokenizer/BertTokenizerFast 封装到一个继承了图像处理器和分词器功能的处理器中。有关更多信息,请参阅 __call__()decode()。传递关键字参数的首选方式是按模态使用字典,请参阅下面的用法示例。

from transformers import AlignProcessor
from PIL import Image
model_id = "kakaobrain/align-base"
processor = AlignProcessor.from_pretrained(model_id)

processor(
    images=your_pil_image,
    text=["What is that?"],
    images_kwargs = {"crop_size": {"height": 224, "width": 224}},
    text_kwargs = {"padding": "do_not_pad"},
    common_kwargs = {"return_tensors": "pt"},
)

batch_decode

< >

( *args **kwargs )

此方法将其所有参数转发给 BertTokenizerFast 的 batch_decode()。有关更多信息,请参阅此方法的文档字符串。

decode

< >

( *args **kwargs )

此方法将其所有参数转发给 BertTokenizerFast 的 decode()。有关更多信息,请参阅此方法的文档字符串。

AlignModel

class transformers.AlignModel

< >

( config: AlignConfig )

参数

  • config (AlignConfig) — 包含模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法来加载模型权重。

此模型继承自 PreTrainedModel。 查看超类文档以了解该库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( input_ids: Optional = None pixel_values: Optional = None attention_mask: Optional = None token_type_ids: Optional = None position_ids: Optional = None head_mask: Optional = None inputs_embeds: Optional = None return_loss: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None )

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略它。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID? attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选): 掩码以避免对填充标记索引执行注意力。在 [0, 1] 中选择的掩码值:

    • 1 表示 未掩码 的标记,
    • 0 表示 已掩码 的标记。

    什么是注意力掩码? position_ids (torch.LongTensor 形状为 (batch_size, sequence_length), 可选): 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID? token_type_ids (torch.LongTensor 形状为 ({0}), 可选): 段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 句子 A 标记,
    • 1 对应于 句子 B 标记。

    什么是标记类型 ID? head_mask (torch.FloatTensor 形状为 (num_heads,)(num_layers, num_heads), 可选): 掩码以使自注意力模块的选定头部无效。在 [0, 1] 中选择的掩码值:

    • 1 表示头部 未掩码
    • 0 表示头部 已掩码

    inputs_embeds (torch.FloatTensor 形状为 ({0}, hidden_size), 可选): 或者,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更能控制如何将 input_ids 索引转换为关联向量,则此选项很有用。 pixel_values (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)): 像素值。如果您提供填充,默认情况下将忽略它。像素值可以使用 AutoImageProcessor 获取。有关详细信息,请参阅 EfficientNetImageProcessor.call()。 return_loss (bool, 可选): 是否返回对比损失。 output_attentions (bool, 可选): 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions。 output_hidden_states (bool, 可选): 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states。 return_dict (bool, 可选): 是否返回 ModelOutput 而不是普通元组。

AlignModel 正向方法,覆盖 __call__ 特殊方法。

虽然需要在此函数中定义正向传递的配方,但之后应该调用 Module 实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

get_text_features

< >

( input_ids: Optional = None attention_mask: Optional = None token_type_ids: Optional = None position_ids: Optional = None head_mask: Optional = None inputs_embeds: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) text_features (torch.FloatTensor 形状为 (batch_size, output_dim)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略它。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 掩码以避免对填充标记索引执行注意力。在 [0, 1] 中选择的掩码值:

    • 1 表示标记**未被掩盖**,
    • 0 表示标记**已被掩盖**。

    什么是注意力掩码?

  • position_ids (torch.LongTensor 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • token_type_ids (torch.LongTensor 形状为 ({0}), 可选) — 段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于*句子 A* 标记,
    • 1 对应于*句子 B* 标记。

    什么是标记类型 ID?

  • head_mask (torch.FloatTensor 形状为 (num_heads,)(num_layers, num_heads), 可选) — 掩码以使自注意力模块的选定头部无效。在 [0, 1] 中选择的掩码值:

    • 1 表示头部**未被掩盖**,
    • 0 表示头部**已被掩盖**。
  • inputs_embeds (torch.FloatTensor 形状为 ({0}, hidden_size), 可选) — 或者,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望更多地控制如何将 input_ids 索引转换为关联向量,而不是模型的内部嵌入查找矩阵,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的“hidden_states”。
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。

返回

text_features (形状为 (batch_size, output_dim) 的 torch.FloatTensor)

通过将投影层应用于 AlignTextModel 的池化输出获得的文本嵌入。

AlignModel 正向方法,覆盖 __call__ 特殊方法。

虽然需要在此函数中定义正向传递的配方,但之后应该调用 Module 实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, AlignModel

>>> model = AlignModel.from_pretrained("kakaobrain/align-base")
>>> tokenizer = AutoTokenizer.from_pretrained("kakaobrain/align-base")

>>> inputs = tokenizer(["a photo of a cat", "a photo of a dog"], padding=True, return_tensors="pt")
>>> text_features = model.get_text_features(**inputs)

get_image_features

< >

( pixel_values: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) image_features (形状为 (batch_size, output_dim) 的 torch.FloatTensor)

参数

  • pixel_values (形状为 (batch_size, num_channels, height, width)torch.FloatTensor) — 像素值。默认情况下,如果提供填充,则将忽略填充。可以使用 AutoImageProcessor 获取像素值。有关详细信息,请参阅 EfficientNetImageProcessor.call()
  • output_hidden_states (bool可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的“hidden_states”。
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是普通元组。

返回

image_features (形状为 (batch_size, output_dim) 的 torch.FloatTensor)

通过将投影层应用于 AlignVisionModel 的池化输出获得的图像嵌入。

AlignModel 正向方法,覆盖 __call__ 特殊方法。

虽然需要在此函数中定义正向传递的配方,但之后应该调用 Module 实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, AlignModel

>>> model = AlignModel.from_pretrained("kakaobrain/align-base")
>>> processor = AutoProcessor.from_pretrained("kakaobrain/align-base")

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> inputs = processor(images=image, return_tensors="pt")

>>> image_features = model.get_image_features(**inputs)

AlignTextModel

transformers.AlignTextModel

< >

( config: AlignTextConfig add_pooling_layer: bool = True )

参数

  • config (AlignConfig) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法来加载模型权重。

ALIGN 的文本模型,顶部没有任何头或投影。 该模型继承自 PreTrainedModel。 查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入的大小、修剪头部等)。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None token_type_ids: Optional = None position_ids: Optional = None head_mask: Optional = None inputs_embeds: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentionstuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor ,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。 如果您提供填充,默认情况下将忽略它。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor, 形状为 (batch_size, sequence_length), 可选) — 掩码以避免对填充标记索引执行注意力。掩码值在 [0, 1] 中选择:

    • 1 表示 **未被掩码** 的标记,
    • 0 表示 **已被掩码** 的标记。

    什么是注意力掩码?

  • position_ids (torch.LongTensor, 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • token_type_ids (torch.LongTensor, 形状为 ({0}), 可选) — 段标记索引,用于指示输入的第一部分和第二部分。索引在 [0, 1] 中选择:

    • 0 对应于 *句子 A* 标记,
    • 1 对应于 *句子 B* 标记。

    什么是标记类型 ID?

  • head_mask (torch.FloatTensor, 形状为 (num_heads,)(num_layers, num_heads), 可选) — 用于使自注意力模块的选定头部无效的掩码。掩码值在 [0, 1] 中选择:

    • 1 表示头部 **未被掩码**,
    • 0 表示头部 **已被掩码**。
  • inputs_embeds (torch.FloatTensor, 形状为 ({0}, hidden_size), 可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更能控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回

transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentionstuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或一个 torch.FloatTensor 的元组 (如果传递了 return_dict=Falseconfig.return_dict=False) 包含取决于配置 (<class 'transformers.models.align.configuration_align.AlignTextConfig'>) 和输入的各种元素。

  • last_hidden_state (torch.FloatTensor ,形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层的隐藏状态序列。

  • pooler_output (torch.FloatTensor ,形状为 (batch_size, hidden_size)) — 序列第一个标记(分类标记)在经过用于辅助预训练任务的层进一步处理后的最后一层隐藏状态。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类标记。线性层权重在预训练期间从下一个句子预测(分类)目标中训练得到。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有嵌入层,则为嵌入层的输出 + 每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层的输出处的隐藏状态,以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

  • cross_attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=Trueconfig.add_cross_attention=Trueconfig.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均值。

  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选, 当传递 use_cache=Trueconfig.use_cache=True 时返回) — 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 元组,每个元组有 2 个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量,如果 config.is_encoder_decoder=True,则可选地有 2 个形状为 (batch_size, num_heads, encoder_sequence_length, embed_size_per_head) 的张量。

    包含预先计算的隐藏状态(自注意力块中的键和值,如果 config.is_encoder_decoder=True,则可选地在交叉注意力块中),可以使用这些状态(参见 past_key_values 输入)来加速顺序解码。

AlignTextModel 前向方法,覆盖了 __call__ 特殊方法。

虽然需要在此函数中定义正向传递的配方,但之后应该调用 Module 实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, AlignTextModel

>>> model = AlignTextModel.from_pretrained("kakaobrain/align-base")
>>> tokenizer = AutoTokenizer.from_pretrained("kakaobrain/align-base")

>>> inputs = tokenizer(["a photo of a cat", "a photo of a dog"], padding=True, return_tensors="pt")

>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output  # pooled (EOS token) states

AlignVisionModel

transformers.AlignVisionModel

< >

( config: AlignVisionConfig )

参数

  • config (AlignConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。

来自 ALIGN 的视觉模型,顶部没有任何头部或投影。此模型继承自 PreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)的文档,请参阅超类文档。

此模型也是 PyTorch torch.nn.Module 子类。 将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解有关一般使用和行为的所有事项。

forward

< >

( pixel_values: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttentiontuple(torch.FloatTensor)

参数

  • pixel_values (torch.FloatTensor ,形状为 (batch_size, num_channels, height, width)) — 像素值。如果您提供填充,默认情况下将忽略它。像素值可以使用 AutoImageProcessor 获得。有关详细信息,请参阅 EfficientNetImageProcessor.call()
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是纯元组。

返回

transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttentiontuple(torch.FloatTensor)

transformers.modeling_outputs.BaseModelOutputWithPoolingAndNoAttentiontorch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),其中包含根据配置 (<class 'transformers.models.align.configuration_align.AlignVisionConfig'>) 和输入而定的各种元素。

  • last_hidden_state (torch.FloatTensor ,形状为 (batch_size, num_channels, height, width)) — 模型最后一层输出的隐藏状态序列。

  • pooler_output (torch.FloatTensor ,形状为 (batch_size, hidden_size)) — 对空间维度进行池化操作后的最后一层隐藏状态。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=Trueconfig.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入的输出(如果模型有嵌入层)+ 一个用于每一层的输出),形状为 (batch_size, num_channels, height, width)

    模型在每个层的输出处的隐藏状态,以及可选的初始嵌入输出。

AlignVisionModel 的 forward 方法,重载了 __call__ 特殊方法。

虽然需要在此函数中定义正向传递的配方,但之后应该调用 Module 实例而不是此实例,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, AlignVisionModel

>>> model = AlignVisionModel.from_pretrained("kakaobrain/align-base")
>>> processor = AutoProcessor.from_pretrained("kakaobrain/align-base")

>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)

>>> inputs = processor(images=image, return_tensors="pt")

>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
>>> pooled_output = outputs.pooler_output  # pooled CLS states
< > 在 GitHub 上更新