Transformers 文档

TVP

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

TVP

概述

文本-视觉提示 (TVP) 框架在 Text-Visual Prompting for Efficient 2D Temporal Video Grounding 论文中提出,作者是 Yimeng Zhang, Xin Chen, Jinghan Jia, Sijia Liu, Ke Ding。

该论文的摘要如下

在本文中,我们研究了时间视频定位(TVG)问题,该问题旨在预测由文本句子描述的时刻在长未剪辑视频中的开始/结束时间点。得益于细粒度的3D视觉特征,TVG技术近年来取得了显著进展。然而,3D卷积神经网络(CNN)的高复杂度使得提取密集的3D视觉特征非常耗时,这需要大量的内存和计算资源。为了实现高效的TVG,我们提出了一个新颖的文本-视觉提示(TVP)框架,该框架将优化的扰动模式(我们称之为“提示”)融入到TVG模型的视觉输入和文本特征中。与3D CNN形成鲜明对比的是,我们表明TVP允许我们在2D TVG模型中有效地共同训练视觉编码器和语言编码器,并仅使用低复杂度的稀疏2D视觉特征来提高跨模态特征融合的性能。此外,我们提出了时间距离IoU(TDIoU)损失,用于高效学习TVG。在Charades-STA和ActivityNet Captions两个基准数据集上的实验经验表明,所提出的TVP显著提升了2D TVG的性能(例如,在Charades-STA上提升了9.79%,在ActivityNet Captions上提升了30.77%),并且与使用3D视觉特征的TVG相比,实现了5倍的推理加速。

本研究探讨了时间视频定位(TVG)问题,即在长视频中根据文本描述精确定位特定事件的开始和结束时间。我们提出了文本-视觉提示(TVP)来增强TVG。TVP涉及将专门设计的模式(称为“提示”)集成到TVG模型的视觉(基于图像)和文本(基于单词)输入组件中。这些提示提供了额外的时空上下文,提高了模型准确确定视频中事件时间的能力。该方法采用2D视觉输入代替3D输入。虽然3D输入提供更丰富的时空细节,但处理起来也更耗时。使用2D输入和提示方法旨在更高效地提供类似水平的上下文和准确性。

drawing TVP 架构。取自原始论文。

此模型由Jiqing Feng贡献。 原始代码可以在这里找到。

使用技巧和示例

提示是优化的扰动模式,将添加到输入视频帧或文本特征中。通用集指的是对任何输入都使用完全相同的提示集,这意味着这些提示始终如一地添加到所有视频帧和文本特征中,而与输入的内容无关。

TVP 由视觉编码器和跨模态编码器组成。一组通用的视觉提示和文本提示分别集成到采样的视频帧和文本特征中。 特别地,一组不同的视觉提示按顺序应用于一个未剪辑视频的均匀采样的帧。

此模型的目的是将可训练的提示融入到视觉输入和文本特征中,以解决时间视频定位(TVG)问题。 原则上,可以在所提出的架构中应用任何视觉、跨模态编码器。

TvpProcessorBertTokenizerTvpImageProcessor 封装到一个实例中,分别用于编码文本和准备图像。

以下示例展示了如何使用 TvpProcessorTvpForVideoGrounding 运行时间视频定位。

import av
import cv2
import numpy as np
import torch
from huggingface_hub import hf_hub_download
from transformers import AutoProcessor, TvpForVideoGrounding


def pyav_decode(container, sampling_rate, num_frames, clip_idx, num_clips, target_fps):
    '''
    Convert the video from its original fps to the target_fps and decode the video with PyAV decoder.
    Args:
        container (container): pyav container.
        sampling_rate (int): frame sampling rate (interval between two sampled frames).
        num_frames (int): number of frames to sample.
        clip_idx (int): if clip_idx is -1, perform random temporal sampling.
            If clip_idx is larger than -1, uniformly split the video to num_clips
            clips, and select the clip_idx-th video clip.
        num_clips (int): overall number of clips to uniformly sample from the given video.
        target_fps (int): the input video may have different fps, convert it to
            the target video fps before frame sampling.
    Returns:
        frames (tensor): decoded frames from the video. Return None if the no
            video stream was found.
        fps (float): the number of frames per second of the video.
    '''
    video = container.streams.video[0]
    fps = float(video.average_rate)
    clip_size = sampling_rate * num_frames / target_fps * fps
    delta = max(num_frames - clip_size, 0)
    start_idx = delta * clip_idx / num_clips
    end_idx = start_idx + clip_size - 1
    timebase = video.duration / num_frames
    video_start_pts = int(start_idx * timebase)
    video_end_pts = int(end_idx * timebase)
    seek_offset = max(video_start_pts - 1024, 0)
    container.seek(seek_offset, any_frame=False, backward=True, stream=video)
    frames = {}
    for frame in container.decode(video=0):
        if frame.pts < video_start_pts:
            continue
        frames[frame.pts] = frame
        if frame.pts > video_end_pts:
            break
    frames = [frames[pts] for pts in sorted(frames)]
    return frames, fps


def decode(container, sampling_rate, num_frames, clip_idx, num_clips, target_fps):
    '''
    Decode the video and perform temporal sampling.
    Args:
        container (container): pyav container.
        sampling_rate (int): frame sampling rate (interval between two sampled frames).
        num_frames (int): number of frames to sample.
        clip_idx (int): if clip_idx is -1, perform random temporal sampling.
            If clip_idx is larger than -1, uniformly split the video to num_clips
            clips, and select the clip_idx-th video clip.
        num_clips (int): overall number of clips to uniformly sample from the given video.
        target_fps (int): the input video may have different fps, convert it to
            the target video fps before frame sampling.
    Returns:
        frames (tensor): decoded frames from the video.
    '''
    assert clip_idx >= -2, "Not a valied clip_idx {}".format(clip_idx)
    frames, fps = pyav_decode(container, sampling_rate, num_frames, clip_idx, num_clips, target_fps)
    clip_size = sampling_rate * num_frames / target_fps * fps
    index = np.linspace(0, clip_size - 1, num_frames)
    index = np.clip(index, 0, len(frames) - 1).astype(np.int64)
    frames = np.array([frames[idx].to_rgb().to_ndarray() for idx in index])
    frames = frames.transpose(0, 3, 1, 2)
    return frames


file = hf_hub_download(repo_id="Intel/tvp_demo", filename="AK2KG.mp4", repo_type="dataset")
model = TvpForVideoGrounding.from_pretrained("Intel/tvp-base")

decoder_kwargs = dict(
    container=av.open(file, metadata_errors="ignore"),
    sampling_rate=1,
    num_frames=model.config.num_frames,
    clip_idx=0,
    num_clips=1,
    target_fps=3,
)
raw_sampled_frms = decode(**decoder_kwargs)

text = "a person is sitting on a bed."
processor = AutoProcessor.from_pretrained("Intel/tvp-base")
model_inputs = processor(
    text=[text], videos=list(raw_sampled_frms), return_tensors="pt", max_text_length=100#, size=size
)

model_inputs["pixel_values"] = model_inputs["pixel_values"].to(model.dtype)
output = model(**model_inputs)

def get_video_duration(filename):
    cap = cv2.VideoCapture(filename)
    if cap.isOpened():
        rate = cap.get(5)
        frame_num = cap.get(7)
        duration = frame_num/rate
        return duration
    return -1

duration = get_video_duration(file)
start, end = processor.post_process_video_grounding(output.logits, duration)

print(f"The time slot of the video corresponding to the text \"{text}\" is from {start}s to {end}s")

提示

  • TVP 的此实现使用 BertTokenizer 生成文本嵌入,并使用 Resnet-50 模型计算视觉嵌入。
  • 预训练的 tvp-base 的检查点已发布。
  • 有关 TVP 在时间视频定位任务上的性能,请参阅表 2

TvpConfig

class transformers.TvpConfig

< >

( backbone_config = None backbone = None use_pretrained_backbone = False use_timm_backbone = False backbone_kwargs = None distance_loss_weight = 1.0 duration_loss_weight = 0.1 visual_prompter_type = 'framepad' visual_prompter_apply = 'replace' visual_prompt_size = 96 max_img_size = 448 num_frames = 48 vocab_size = 30522 hidden_size = 768 intermediate_size = 3072 num_hidden_layers = 12 num_attention_heads = 12 max_position_embeddings = 512 max_grid_col_position_embeddings = 100 max_grid_row_position_embeddings = 100 hidden_dropout_prob = 0.1 hidden_act = 'gelu' layer_norm_eps = 1e-12 initializer_range = 0.02 attention_probs_dropout_prob = 0.1 **kwargs )

参数

  • backbone_config (PretrainedConfigdict, 可选) — 骨干模型的配置。
  • backbone (str, 可选) — 当 backbone_configNone 时,要使用的骨干网络的名称。如果 use_pretrained_backboneTrue,这将从 timm 或 transformers 库加载相应的预训练权重。如果 use_pretrained_backboneFalse,这将加载骨干网络的配置并使用它来初始化具有随机权重的骨干网络。
  • use_pretrained_backbone (bool, 可选, 默认为 False) — 是否对骨干网络使用预训练权重。
  • use_timm_backbone (bool, 可选, 默认为 False) — 是否从 timm 库加载 backbone。如果为 False,则从 transformers 库加载骨干网络。
  • backbone_kwargs (dict, 可选) — 从检查点加载时要传递给 AutoBackbone 的关键字参数,例如 {'out_indices': (0, 1, 2, 3)}。 如果设置了 backbone_config,则不能指定此参数。
  • distance_loss_weight (float, 可选, 默认为 1.0) — 距离损失的权重。
  • duration_loss_weight (float, 可选, 默认为 0.1) — 持续时间损失的权重。
  • visual_prompter_type (str, 可选, 默认为 "framepad") — 视觉提示类型。 填充类型。 Framepad 表示在每个帧上填充。应为 “framepad” 或 “framedownpad” 之一
  • visual_prompter_apply (str, 可选, 默认为 "replace") — 应用视觉提示的方式。 Replace 表示使用提示的值来更改视觉输入中的原始值。应为 “replace”、“add” 或 “remove” 之一。
  • visual_prompt_size (int, 可选, 默认为 96) — 视觉提示的大小。
  • max_img_size (int, 可选, 默认为 448) — 帧的最大尺寸。
  • num_frames (int, 可选, 默认为 48) — 从视频中提取的帧数。
  • vocab_size (int, 可选, 默认为 30522) — Tvp 文本模型的词汇表大小。定义了在调用 TvpModel 时可以通过 inputs_ids 传递的不同 token 的数量。
  • hidden_size (int, 可选, 默认为 768) — 编码器层的维度。
  • intermediate_size (int, 可选, 默认为 3072) — Transformer 编码器中 “中间”(即,前馈)层的维度。
  • num_hidden_layers (int, 可选, 默认为 12) — Transformer 编码器中隐藏层的数量。
  • num_attention_heads (int, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头的数量。
  • max_position_embeddings (int, 可选, 默认为 512) — 此模型可能使用的最大序列长度。 通常将其设置为较大的值以防万一(例如,512 或 1024 或 2048)。
  • max_grid_col_position_embeddings (int, optional, defaults to 100) — 视频帧中水平方向图块的最大数量。
  • max_grid_row_position_embeddings (int, optional, defaults to 100) — 视频帧中垂直方向图块的最大数量。
  • hidden_dropout_prob (float, optional, defaults to 0.1) — 隐藏层的 dropout 概率。
  • hidden_act (str or function, optional, defaults to "gelu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "gelu""relu""selu""gelu_new""quick_gelu"
  • layer_norm_eps (float, optional, defaults to 1e-12) — layer normalization 层使用的 epsilon 值。
  • initializer_range (float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • attention_probs_dropout_prob (float, optional, defaults to 0.1) — attention 层的 dropout 概率。

这是用于存储 TvpModel 配置的配置类。它用于根据指定的参数实例化 Tvp 模型,定义模型架构。使用默认值实例化配置将产生与 Tvp Intel/tvp-base 架构类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。

from_backbone_config

< >

( backbone_config: PretrainedConfig **kwargs ) TvpConfig

参数

返回

TvpConfig

配置对象的实例

从预训练的主干模型配置实例化 TvpConfig(或派生类)。

to_dict

< >

( ) Dict[str, any]

返回

Dict[str, any]

构成此配置实例的所有属性的字典,

将此实例序列化为 Python 字典。覆盖默认的 to_dict()

TvpImageProcessor

class transformers.TvpImageProcessor

< >

( do_resize: bool = True size: Dict = None resample: Resampling = <Resampling.BILINEAR: 2> do_center_crop: bool = True crop_size: Dict = None do_rescale: bool = True rescale_factor: Union = 0.00392156862745098 do_pad: bool = True pad_size: Dict = None constant_values: Union = 0 pad_mode: PaddingMode = <PaddingMode.CONSTANT: 'constant'> do_normalize: bool = True do_flip_channel_order: bool = True image_mean: Union = None image_std: Union = None **kwargs )

参数

  • do_resize (bool, optional, defaults to True) — 是否将图像的(高度,宽度)尺寸调整为指定的 size。可以被 preprocess 方法中的 do_resize 参数覆盖。
  • size (Dict[str, int] optional, defaults to {"longest_edge" -- 448}): 调整大小后输出图像的尺寸。图像的最长边将被调整为 size["longest_edge"],同时保持原始图像的纵横比。可以被 preprocess 方法中的 size 覆盖。
  • resample (PILImageResampling, optional, defaults to Resampling.BILINEAR) — 如果调整图像大小,要使用的重采样滤波器。可以被 preprocess 方法中的 resample 参数覆盖。
  • do_center_crop (bool, optional, defaults to True) — 是否将图像中心裁剪为指定的 crop_size。可以被 preprocess 方法中的 do_center_crop 参数覆盖。
  • crop_size (Dict[str, int], optional, defaults to {"height" -- 448, "width": 448}): 应用中心裁剪后图像的尺寸。可以被 preprocess 方法中的 crop_size 参数覆盖。
  • do_rescale (bool, optional, defaults to True) — 是否按指定的比例 rescale_factor 缩放图像。可以被 preprocess 方法中的 do_rescale 参数覆盖。
  • rescale_factor (int or float, optional, defaults to 1/255) — 定义缩放图像时使用的缩放因子。可以被 preprocess 方法中的 rescale_factor 参数覆盖。
  • do_pad (bool, optional, defaults to True) — 是否填充图像。可以被 preprocess 方法中的 do_pad 参数覆盖。
  • pad_size (Dict[str, int], optional, defaults to {"height" -- 448, "width": 448}): 应用填充后图像的尺寸。可以被 preprocess 方法中的 pad_size 参数覆盖。
  • constant_values (Union[float, Iterable[float]], optional, defaults to 0) — 填充图像时使用的填充值。
  • pad_mode (PaddingMode, optional, defaults to PaddingMode.CONSTANT) — 填充中使用哪种模式。
  • do_normalize (bool, optional, defaults to True) — 是否标准化图像。可以被 preprocess 方法中的 do_normalize 参数覆盖。
  • do_flip_channel_order (bool, optional, defaults to True) — 是否将颜色通道从 RGB 翻转到 BGR。可以被 preprocess 方法中的 do_flip_channel_order 参数覆盖。
  • image_mean (floatList[float], optional, defaults to IMAGENET_STANDARD_MEAN) — 如果对图像进行归一化,则使用的均值。这是一个浮点数或浮点数列表,其长度等于图像中的通道数。可以被 preprocess 方法中的 image_mean 参数覆盖。
  • image_std (floatList[float], optional, defaults to IMAGENET_STANDARD_STD) — 如果对图像进行归一化,则使用的标准差。这是一个浮点数或浮点数列表,其长度等于图像中的通道数。可以被 preprocess 方法中的 image_std 参数覆盖。

构建 Tvp 图像处理器。

preprocess

< >

( videos: Union do_resize: bool = None size: Dict = None resample: Resampling = None do_center_crop: bool = None crop_size: Dict = None do_rescale: bool = None rescale_factor: float = None do_pad: bool = None pad_size: Dict = None constant_values: Union = None pad_mode: PaddingMode = None do_normalize: bool = None do_flip_channel_order: bool = None image_mean: Union = None image_std: Union = None return_tensors: Union = None data_format: ChannelDimension = <ChannelDimension.FIRST: 'channels_first'> input_data_format: Union = None )

参数

  • videos (ImageInputList[ImageInput]List[List[ImageInput]]) — 要预处理的帧。
  • do_resize (bool, optional, defaults to self.do_resize) — 是否调整图像大小。
  • size (Dict[str, int], optional, defaults to self.size) — 应用调整大小后图像的大小。
  • resample (PILImageResampling, optional, defaults to self.resample) — 如果调整图像大小,则使用的重采样滤波器。这可以是枚举 PILImageResampling 之一,仅在 do_resize 设置为 True 时有效。
  • do_center_crop (bool, optional, defaults to self.do_centre_crop) — 是否对图像进行中心裁剪。
  • crop_size (Dict[str, int], optional, defaults to self.crop_size) — 应用中心裁剪后图像的大小。
  • do_rescale (bool, optional, defaults to self.do_rescale) — 是否将图像值缩放到 [0 - 1] 之间。
  • rescale_factor (float, optional, defaults to self.rescale_factor) — 如果 do_rescale 设置为 True,则用于缩放图像的缩放因子。
  • do_pad (bool, optional, defaults to True) — 是否填充图像。可以被 preprocess 方法中的 do_pad 参数覆盖。
  • pad_size (Dict[str, int], optional, defaults to {"height" -- 448, "width": 448}): 应用填充后图像的大小。可以被 preprocess 方法中的 pad_size 参数覆盖。
  • constant_values (Union[float, Iterable[float]], optional, defaults to 0) — 填充图像时使用的填充值。
  • pad_mode (PaddingMode, optional, defaults to “PaddingMode.CONSTANT”) — 填充时使用的模式类型。
  • do_normalize (bool, optional, defaults to self.do_normalize) — 是否对图像进行归一化。
  • do_flip_channel_order (bool, optional, defaults to self.do_flip_channel_order) — 是否翻转图像的通道顺序。
  • image_mean (floatList[float], optional, defaults to self.image_mean) — 图像均值。
  • image_std (floatList[float], optional, defaults to self.image_std) — 图像标准差。
  • return_tensors (strTensorType, optional) — 要返回的张量类型。可以是以下之一:
    • Unset: 返回 np.ndarray 列表。
    • TensorType.TENSORFLOW'tf': 返回 tf.Tensor 类型的批次。
    • TensorType.PYTORCH'pt': 返回 torch.Tensor 类型的批次。
    • TensorType.NUMPY'np': 返回 np.ndarray 类型的批次。
    • TensorType.JAX'jax': 返回 jax.numpy.ndarray 类型的批次。
  • data_format (ChannelDimensionstr, optional, defaults to ChannelDimension.FIRST) — 输出图像的通道维度格式。可以是以下之一:
    • ChannelDimension.FIRST: 图像格式为 (num_channels, height, width)。
    • ChannelDimension.LAST: 图像格式为 (height, width, num_channels)。
    • Unset: 使用输入图像的推断通道维度格式。
  • input_data_format (ChannelDimensionstr, optional) — 输入图像的通道维度格式。如果未设置,则从输入图像推断通道维度格式。可以是以下之一:
    • "channels_first"ChannelDimension.FIRST: 图像格式为 (num_channels, height, width)。
    • "channels_last"ChannelDimension.LAST: 图像格式为 (height, width, num_channels)。
    • "none"ChannelDimension.NONE: 图像格式为 (height, width)。

预处理图像或一批图像。

TvpProcessor

class transformers.TvpProcessor

< >

( image_processor = None tokenizer = None **kwargs )

参数

构建一个 TVP 处理器,它将 TVP 图像处理器和 Bert 分词器封装到一个单独的处理器中。

TvpProcessor 提供了 TvpImageProcessorBertTokenizerFast 的所有功能。有关更多信息,请参阅 call()decode()

__call__

< >

( text = None videos = None return_tensors = None **kwargs ) BatchEncoding

参数

  • text (str, List[str], List[List[str]]) — 要编码的序列或序列批次。每个序列可以是字符串或字符串列表(预分词字符串)。如果序列作为字符串列表(预分词)提供,则必须设置 is_split_into_words=True(以消除与序列批次的歧义)。
  • videos (List[PIL.Image.Image], List[np.ndarray], List[torch.Tensor], List[List[PIL.Image.Image]], List[List[np.ndarrray]], — List[List[torch.Tensor]]): 要准备的视频或视频批次。每个视频应为帧列表,可以是 PIL 图像或 NumPy 数组。如果使用 NumPy 数组/PyTorch 张量,则每帧应为形状 (H, W, C),其中 H 和 W 是帧的高度和宽度,C 是通道数。
  • return_tensors (strTensorType, 可选) — 如果设置,将返回特定框架的张量。可接受的值为:

    • 'tf': 返回 TensorFlow tf.constant 对象。
    • 'pt': 返回 PyTorch torch.Tensor 对象。
    • 'np': 返回 NumPy np.ndarray 对象。
    • 'jax': 返回 JAX jnp.ndarray 对象。

返回

BatchEncoding

具有以下字段的 BatchEncoding

  • input_ids — 要馈送到模型的 token id 列表。当 text 不是 None 时返回。
  • attention_mask — 指定模型应注意哪些 token 的索引列表(当 return_attention_mask=True 或如果 “attention_mask”self.model_input_names 中,并且 text 不是 None 时)。
  • pixel_values — 要馈送到模型的像素值。当 videos 不是 None 时返回。

为模型准备一个或多个序列和图像的主要方法。如果 text 不是 None 以编码文本,此方法将 textkwargs 参数转发到 BertTokenizerFast 的 call()。为了准备图像,如果 videos 不是 None,此方法将 videoskwargs 参数转发到 TvpImageProcessor 的 call()。有关更多信息,请参阅上述两种方法的文档字符串。

TvpModel

class transformers.TvpModel

< >

( config )

参数

  • config (TvpConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

裸 Tvp 模型 Transformer 输出 BaseModelOutputWithPooling 对象,顶部没有任何特定的 head。此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None pixel_values: Optional = None attention_mask: Optional = None head_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None interpolate_pos_encoding: bool = False ) transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 token 的索引。索引可以使用 AutoTokenizer 获得。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()什么是输入 ID?
  • pixel_values (torch.FloatTensor,形状为 (batch_size, num_frames, num_channels, height, width)) — 像素值。像素值可以使用 TvpImageProcessor 获得。有关详细信息,请参阅 TvpImageProcessor.call()
  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 掩码,用于避免在 padding token 索引上执行 attention。掩码值在 [0, 1] 中选择:

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 掩码,用于使自注意力模块的选定 head 失效。掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩码
    • 0 表示 head 已被掩码
  • output_attentions (bool, 可选) — 是否返回所有 attention 层的 attentions 张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的 hidden states。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • interpolate_pos_encoding (bool, 可选, 默认为 False) — 是否插值预训练图像 pad prompter 编码和位置编码。

返回

transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPoolingtorch.FloatTensor 的元组 (如果传递 return_dict=False 或当 config.return_dict=False 时),包含各种元素,具体取决于配置 (<class 'transformers.models.tvp.configuration_tvp.TvpConfig'>) 和输入。

  • last_hidden_state (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)) — 模型最后一层输出端的 hidden-states 序列。

  • pooler_output (torch.FloatTensor,形状为 (batch_size, hidden_size)) — 序列的第一个 token(分类 token)的最后一层 hidden-state,在通过用于辅助预训练任务的层进行进一步处理之后。例如,对于 BERT 系列模型,这返回分类 token,在通过线性层和 tanh 激活函数处理后。线性层权重通过预训练期间的下一句预测(分类)目标进行训练。

  • hidden_states (tuple(torch.FloatTensor), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(如果模型有 embedding 层,则为 embedding 输出的元组,+ 每个层的输出的元组),形状为 (batch_size, sequence_length, hidden_size)

    模型在每一层输出端的 Hidden-states,加上可选的初始 embedding 输出。

  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    attention softmax 之后的 Attention 权重,用于计算自注意力 head 中的加权平均值。

TvpModel forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数内定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> import torch
>>> from transformers import AutoConfig, AutoTokenizer, TvpModel

>>> model = TvpModel.from_pretrained("Jiqing/tiny-random-tvp")

>>> tokenizer = AutoTokenizer.from_pretrained("Jiqing/tiny-random-tvp")

>>> pixel_values = torch.rand(1, 1, 3, 448, 448)
>>> text_inputs = tokenizer("This is an example input", return_tensors="pt")
>>> output = model(text_inputs.input_ids, pixel_values, text_inputs.attention_mask)

TvpForVideoGrounding

class transformers.TvpForVideoGrounding

< >

( config )

参数

  • config (TvpConfig) — 具有模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。查看 from_pretrained() 方法以加载模型权重。

Tvp 模型,顶部带有视频 grounding head,用于计算 IoU、距离和持续时间损失。

此模型是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以了解与常规用法和行为相关的所有事项。

forward

< >

( input_ids: Optional = None pixel_values: Optional = None attention_mask: Optional = None labels: Tuple = None head_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None interpolate_pos_encoding: bool = False ) transformers.models.tvp.modeling_tvp.TvpVideoGroundingOutput or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length)) — 词汇表中输入序列 tokens 的索引。索引可以使用 AutoTokenizer 获得。 参见 PreTrainedTokenizer.encode()PreTrainedTokenizer.call() 以了解详情。 什么是输入 IDs?
  • pixel_values (torch.FloatTensor,形状为 (batch_size, num_frames, num_channels, height, width)) — 像素值。 像素值可以使用 TvpImageProcessor 获得。 参见 TvpImageProcessor.call() 以了解详情。
  • attention_mask (torch.FloatTensor,形状为 (batch_size, sequence_length)可选) — 用于避免在 padding token 索引上执行 attention 的掩码。 掩码值在 [0, 1] 中选择:

  • head_mask (torch.FloatTensor,形状为 (num_heads,)(num_layers, num_heads)可选) — 用于 nullify self-attention 模块中选定 head 的掩码。 掩码值在 [0, 1] 中选择:

    • 1 表示 head 未被掩盖
    • 0 表示 head 已被掩盖
  • output_attentions (bool可选) — 是否返回所有 attention 层的 attentions tensors。 有关更多详细信息,请参阅返回 tensors 下的 attentions
  • output_hidden_states (bool可选) — 是否返回所有层的 hidden states。 有关更多详细信息,请参阅返回 tensors 下的 hidden_states
  • return_dict (bool可选) — 是否返回 ModelOutput 而不是纯 tuple。
  • interpolate_pos_encoding (bool可选,默认为 False) — 是否插值预训练的图像 pad prompter 编码和位置编码。
  • labels (torch.FloatTensor,形状为 (batch_size, 3)可选) — labels 包含与文本对应的视频的 duration、start time 和 end time。

返回

transformers.models.tvp.modeling_tvp.TvpVideoGroundingOutput or tuple(torch.FloatTensor)

一个 transformers.models.tvp.modeling_tvp.TvpVideoGroundingOutputtorch.FloatTensor 的 tuple(如果传递了 return_dict=False 或当 config.return_dict=False 时),包含取决于配置 (<class 'transformers.models.tvp.configuration_tvp.TvpConfig'>) 和输入的各种元素。

  • loss (torch.FloatTensor,形状为 (1,)可选,当 return_lossTrue 时返回) — 用于视频 grounding 的 Temporal-Distance IoU loss。
  • logits (torch.FloatTensor,形状为 (batch_size, 2)) — 包含 start_time/duration 和 end_time/duration。 它是与输入文本对应的视频的时间段。
  • hidden_states (tuple(torch.FloatTensor)可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的 Tuple(如果模型有 embedding 层,则一个用于 embeddings 的输出,加上每个层输出的另一个)形状为 (batch_size, sequence_length, hidden_size)。 模型在每个层输出的 Hidden-states 加上可选的初始 embedding 输出。
  • attentions (tuple(torch.FloatTensor), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

TvpForVideoGrounding 的 forward 方法,覆盖了 __call__ 特殊方法。

尽管 forward 传递的配方需要在该函数内定义,但应该在之后调用 Module 实例而不是此函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> import torch
>>> from transformers import AutoConfig, AutoTokenizer, TvpForVideoGrounding

>>> model = TvpForVideoGrounding.from_pretrained("Jiqing/tiny-random-tvp")

>>> tokenizer = AutoTokenizer.from_pretrained("Jiqing/tiny-random-tvp")

>>> pixel_values = torch.rand(1, 1, 3, 448, 448)
>>> text_inputs = tokenizer("This is an example input", return_tensors="pt")
>>> output = model(text_inputs.input_ids, pixel_values, text_inputs.attention_mask)
< > 在 GitHub 上更新