Transformers 文档

CLAP

Hugging Face's logo
加入 Hugging Face 社区

并获得增强文档体验的权限

开始使用

CLAP

概述

CLAP 模型由 Yusong Wu、Ke Chen、Tianyu Zhang、Yuchen Hui、Taylor Berg-Kirkpatrick 和 Shlomo Dubnov 在 Large Scale Contrastive Language-Audio pretraining with feature fusion and keyword-to-caption augmentation 中提出。

CLAP(对比性语言-音频预训练)是一种神经网络,在各种(音频、文本)对上进行训练。它可以被指示在给定音频的情况下预测最相关的文本片段,而无需直接针对该任务进行优化。CLAP 模型使用 SWINTransformer 从对数梅尔频谱图输入中获取音频特征,并使用 RoBERTa 模型获取文本特征。然后将文本和音频特征投影到具有相同维度的潜在空间。然后将投影的音频和文本特征之间的点积用作相似性得分。

该论文的摘要是:

对比学习在多模态表示学习领域取得了显著成功。在本文中,我们提出了一种对比性语言-音频预训练流程,通过将音频数据与自然语言描述结合起来来开发音频表示。为了实现这一目标,我们首先发布了 LAION-Audio-630K,这是一个包含来自不同数据源的 633,526 个音频-文本对的大型集合。其次,我们通过考虑不同的音频编码器和文本编码器来构建对比性语言-音频预训练模型。我们将特征融合机制和关键词到标题增强纳入模型设计中,以进一步使模型能够处理可变长度的音频输入并提高性能。第三,我们进行了全面的实验,以评估我们的模型在三个任务中的表现:文本到音频检索、零样本音频分类和监督音频分类。结果表明,我们的模型在文本到音频检索任务中取得了优异的性能。在音频分类任务中,该模型在零样本设置中实现了最先进的性能,并且能够在非零样本设置中获得与模型结果相当的性能。LAION-Audio-6

该模型由 Younes BelkadaArthur Zucker 贡献。原始代码可以在 此处 找到。

ClapConfig

transformers.ClapConfig

< >

( text_config = None audio_config = None logit_scale_init_value = 14.285714285714285 projection_dim = 512 projection_hidden_act = 'relu' initializer_factor = 1.0 **kwargs )

参数

  • text_config (dict可选) — 用于初始化 ClapTextConfig 的配置选项字典。
  • audio_config (dict可选) — 用于初始化 ClapAudioConfig 的配置选项字典。
  • **logit_scale_init_value** (``float``, *可选*, 默认值为 14.29) — *logit_scale* 参数的初始值。根据原始 CLAP 实现使用默认值。
  • **projection_dim** (``int``, *可选*, 默认值为 512) — 文本和音频投影层的维度。
  • **projection_hidden_act** (``str``, *可选*, 默认值为 ``"relu"``) — 投影层的激活函数。
  • **initializer_factor** (``float``, *可选*, 默认值为 1.0) — 用于缩放模型权重初始化的因子。
  • **kwargs** (*可选*) — 关键字参数字典。

ClapConfig 是用于存储 ClapModel 配置的配置类。它用于根据指定的参数实例化 CLAP 模型,定义文本模型和音频模型配置。使用默认值实例化配置将产生与 CLAP laion/clap-htsat-fused 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import ClapConfig, ClapModel

>>> # Initializing a ClapConfig with laion-ai/base style configuration
>>> configuration = ClapConfig()

>>> # Initializing a ClapModel (with random weights) from the laion-ai/base style configuration
>>> model = ClapModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

>>> # We can also initialize a ClapConfig from a ClapTextConfig and a ClapAudioConfig
>>> from transformers import ClapTextConfig, ClapAudioConfig

>>> # Initializing a ClapText and ClapAudioConfig configuration
>>> config_text = ClapTextConfig()
>>> config_audio = ClapAudioConfig()

>>> config = ClapConfig.from_text_audio_configs(config_text, config_audio)

from_text_audio_configs

< >

( text_config: ClapTextConfig audio_config: ClapAudioConfig **kwargs ) ClapConfig

返回值

ClapConfig

配置对象的实例

从 clap 文本模型配置和 clap 音频模型配置实例化 ClapConfig(或派生类)。

ClapTextConfig

class transformers.ClapTextConfig

< >

( vocab_size = 50265 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 514 type_vocab_size = 1 initializer_factor = 1.0 layer_norm_eps = 1e-12 projection_dim = 512 pad_token_id = 1 bos_token_id = 0 eos_token_id = 2 position_embedding_type = 'absolute' use_cache = True projection_hidden_act = 'relu' **kwargs )

参数

  • vocab_size (int, 可选的, 默认值 30522) — CLAP 模型的词汇量。定义在调用 ClapTextModel 时传递的 inputs_ids 可以表示的不同标记的数量。
  • hidden_size (int, 可选的, 默认值 768) — 编码器层和池化层的维度。
  • num_hidden_layers (int, 可选的, 默认值 12) — Transformer 编码器中的隐藏层数。
  • num_attention_heads (int, 可选, 默认值为 12) — Transformer 编码器中每个注意力层的注意力头数。
  • intermediate_size (int, 可选, 默认值为 3072) — Transformer 编码器中“中间”(通常称为前馈)层的维度。
  • hidden_act (strCallable, 可选, 默认值为 "relu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果为字符串,则支持 "relu""relu""silu""relu_new"
  • hidden_dropout_prob (float, 可选, 默认值为 0.1) — 嵌入、编码器和池化器中所有全连接层的 dropout 概率。
  • attention_probs_dropout_prob (float, 可选, 默认值为 0.1) — 注意力概率的 dropout 比率。
  • max_position_embeddings (int, 可选, 默认值为 512) — 此模型可能使用的最大序列长度。通常将其设置为较大的值以防万一(例如,512、1024 或 2048)。
  • type_vocab_size (int, 可选, 默认值为 2) — 调用 ClapTextModel 时传递的 token_type_ids 的词汇量大小。
  • layer_norm_eps (float, 可选, 默认值为 1e-12) — 层归一化层使用的 epsilon。
  • position_embedding_type (str, 可选, 默认值为 "absolute") — 位置嵌入的类型。从 "absolute""relative_key""relative_key_query" 中选择一个。对于位置嵌入,请使用 "absolute"。有关 "relative_key" 的更多信息,请参阅 具有相对位置表示的自注意力(Shaw 等人)。有关 "relative_key_query" 的更多信息,请参阅 使用更好的相对位置嵌入改进 Transformer 模型(Huang 等人) 中的 *方法 4*。
  • is_decoder (bool, 可选, 默认值为 False) — 模型是否用作解码器。如果为 False,则模型用作编码器。
  • use_cache (bool, 可选, 默认值为 True) — 模型是否应该返回最后的键/值注意力(并非所有模型都使用)。仅在 config.is_decoder=True 时相关。
  • projection_hidden_act (str, 可选, 默认值为 "relu") — 投影层中的非线性激活函数(函数或字符串)。如果是字符串,则支持 "gelu""relu""silu""gelu_new"
  • projection_dim (int, 可选, 默认值为 512) — ClapTextModelWithProjection 的投影头的维度。

这是用于存储 ClapTextModel 配置的配置类。它用于根据指定的参数实例化 CLAP 模型,定义模型架构。使用默认值实例化配置将产生与 CLAP calp-hsat-fused 架构相似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import ClapTextConfig, ClapTextModel

>>> # Initializing a CLAP text configuration
>>> configuration = ClapTextConfig()

>>> # Initializing a model (with random weights) from the configuration
>>> model = ClapTextModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

ClapAudioConfig

class transformers.ClapAudioConfig

< >

( window_size = 8 num_mel_bins = 64 spec_size = 256 hidden_act = 'gelu' patch_size = 4 patch_stride = [4, 4] num_classes = 527 hidden_size = 768 projection_dim = 512 depths = [2, 2, 6, 2] num_attention_heads = [4, 8, 16, 32] enable_fusion = False hidden_dropout_prob = 0.1 fusion_type = None patch_embed_input_channels = 1 flatten_patch_embeds = True patch_embeds_hidden_size = 96 enable_patch_layer_norm = True drop_path_rate = 0.0 attention_probs_dropout_prob = 0.0 qkv_bias = True mlp_ratio = 4.0 aff_block_r = 4 num_hidden_layers = 4 projection_hidden_act = 'relu' layer_norm_eps = 1e-05 initializer_factor = 1.0 **kwargs )

参数

  • window_size (int可选,默认为 8) — 语谱图的图像大小
  • num_mel_bins (int可选,默认为 64) — 每帧使用的梅尔特征数量。应该与 ClapProcessor 类中使用的值相对应。
  • spec_size (int可选,默认为 256) — 模型支持的语谱图的期望输入大小。它可以与 ClapFeatureExtractor 的输出不同,在这种情况下,输入特征将被调整大小。对应于音频模型的 image_size
  • hidden_act (str, 可选, 默认为 "gelu") — 编码器和池化层中的非线性激活函数(函数或字符串)。 如果是字符串,则支持 "gelu""relu""silu""gelu_new"
  • patch_size (int, 可选, 默认为 4) — 音频频谱图的补丁大小
  • patch_stride (list, 可选, 默认为 [4, 4]) — 音频频谱图的补丁步长
  • num_classes (int, 可选, 默认为 527) — 用于头部训练的类别数量
  • hidden_size (int, 可选, 默认为 768) — 音频编码器输出的隐藏大小。 对应于倒数第二层输出的维度,该输出将发送到投影 MLP 层。
  • projection_dim (int, 可选, 默认为 512) — 投影层的隐藏大小。
  • depths (list, 可选, 默认为 [2, 2, 6, 2]) — 用于音频模型的 Swin 层的深度
  • num_attention_heads (list, 可选, 默认为 [4, 8, 16, 32]) — 用于音频模型的 Swin 层的注意力头数量
  • enable_fusion (bool可选,默认为 False) — 是否启用补丁融合。这是作者的主要贡献,应该会得到最好的结果。
  • hidden_dropout_prob (float可选,默认为 0.1) — 编码器中所有全连接层的 dropout 概率。
  • fusion_type ([type]可选) — 用于补丁融合的融合类型。
  • patch_embed_input_channels (int可选,默认为 1) — 用于输入声谱图的通道数
  • flatten_patch_embeds (bool可选,默认为 True) — 是否展平补丁嵌入
  • patch_embeds_hidden_size (int可选,默认为 96) — 补丁嵌入的隐藏大小。它用作输出通道的数量。
  • enable_patch_layer_norm (bool可选,默认为 True) — 是否对补丁嵌入启用层归一化
  • drop_path_rate (float, 可选, 默认值为 0.0) — 面片融合的丢弃路径率
  • attention_probs_dropout_prob (float, 可选, 默认值为 0.0) — 注意力概率的丢弃率。
  • qkv_bias (bool, 可选, 默认值为 True) — 是否为查询、键、值投影添加偏差。
  • mlp_ratio (float, 可选, 默认值为 4.0) — mlp 隐藏维度与嵌入维度的比率。
  • aff_block_r (int, 可选, 默认值为 4) — AudioFF 块中使用的下采样率
  • num_hidden_layers (int, 可选, 默认值为 4) — Transformer 编码器中的隐藏层数。
  • projection_hidden_act (str, 可选, 默认值为 "relu") — 投影层中的非线性激活函数(函数或字符串)。 如果是字符串,则支持 "gelu""relu""silu""gelu_new"
  • layer_norm_eps ([type], 可选, 默认值为 1e-05) — 层归一化层使用的 epsilon。
  • initializer_factor (float,*可选*,默认为 1.0) — 初始化所有权重矩阵的因子(应保持为 1,在内部用于初始化测试)。

这是用于存储 ClapAudioModel 配置的配置类。它用于根据指定的参数实例化 CLAP 音频编码器,定义模型架构。使用默认值实例化配置将产生与 CLAP laion/clap-htsat-fused 架构的音频编码器类似的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档了解更多信息。

示例

>>> from transformers import ClapAudioConfig, ClapAudioModel

>>> # Initializing a ClapAudioConfig with laion/clap-htsat-fused style configuration
>>> configuration = ClapAudioConfig()

>>> # Initializing a ClapAudioModel (with random weights) from the laion/clap-htsat-fused style configuration
>>> model = ClapAudioModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

ClapFeatureExtractor

transformers.ClapFeatureExtractor

< >

( feature_size = 64 sampling_rate = 48000 hop_length = 480 max_length_s = 10 fft_window_size = 1024 padding_value = 0.0 return_attention_mask = False frequency_min: float = 0 frequency_max: float = 14000 top_db: int = None truncation: str = 'fusion' padding: str = 'repeatpad' **kwargs )

参数

  • feature_size (int,*可选*,默认为 64) — 提取的梅尔频谱图的特征维度。这对应于梅尔滤波器的数量 (n_mels)。
  • sampling_rate (int,*可选*,默认为 48000) — 音频文件应数字化的采样率,以赫兹 (Hz) 表示。这仅用于在提供给特征提取器的音频没有相同的采样率时警告用户。
  • hop_length (int可选,默认为 480) — 用于获取梅尔频谱图的 STFT 重叠窗口的长度。音频将被分割成更小的,每帧之间有一个 hop_length 的步长。
  • max_length_s (int可选,默认为 10) — 模型的最大输入长度(以秒为单位)。这用于填充音频。
  • fft_window_size (int可选,默认为 1024) — 应用傅里叶变换的窗口大小(以样本为单位)。这控制着频谱图的频率分辨率。400 意味着在 400 个样本的窗口上计算傅里叶变换。
  • padding_value (float可选,默认为 0.0) — 用于填充音频的填充值。应对应于静音。
  • return_attention_mask (bool可选,默认为 False) — 模型是否应返回与输入相对应的注意力掩码。
  • frequency_min (float可选,默认为 0) — 感兴趣的最低频率。STFT 不会计算低于此值的值。
  • frequency_max (float可选,默认为 14000) — 感兴趣的最高频率。STFT 不会计算高于此值的值。
  • top_db (float可选) — 用于将梅尔频谱图转换为对数刻度的最高分贝值。有关更多详细信息,请参阅 audio_utils.power_to_db 函数。
  • truncation (str, 可选, 默认为 "fusion") — 长音频输入的截断模式。有两种模式可用:
    • fusion 将使用 _random_mel_fusion,它将梅尔频谱图的 3 个随机裁剪和整个梅尔频谱图的下采样版本堆叠在一起。如果 config.fusion 设置为 True,则较短的音频也需要返回 4 个梅尔,这将只是从填充音频获得的原始梅尔的副本。
    • rand_trunc 将选择梅尔频谱图的随机裁剪。
  • padding (str, 可选, 默认为 "repeatpad") — 较短音频输入的填充模式。最初实现了三种模式:
    • repeatpad:重复音频,然后填充以适应 max_length
    • repeat:重复音频,然后剪切以适应 max_length
    • pad:填充音频。

构造一个 CLAP 特征提取器。

此特征提取器继承自 SequenceFeatureExtractor,其中包含大多数主要方法。用户应该参考这个超类以获取有关这些方法的更多信息。

此类使用自定义 numpy 实现的*短时傅立叶变换*(STFT)从原始语音中提取梅尔滤波器组特征,该实现应与 pytorch 的 torch.stft 等效。

to_dict

< >

( ) Dict[str, Any]

返回值

Dict[str, Any]

组成此配置实例的所有属性的字典,但梅尔滤波器组除外,因为它们太长,不需要保存或打印。

将此实例序列化为 Python 字典。

ClapProcessor

class transformers.ClapProcessor

< >

( feature_extractor tokenizer )

参数

构造一个 CLAP 处理器,它将 CLAP 特征提取器和 RoBerta 分词器封装到一个处理器中。

ClapProcessor 提供了 ClapFeatureExtractorRobertaTokenizerFast 的所有功能。有关更多信息,请参阅 __call__()decode()

batch_decode

< >

( *args **kwargs )

此方法将其所有参数转发给 RobertaTokenizerFast 的 batch_decode()。有关更多信息,请参阅此方法的文档字符串。

decode

< >

( *args **kwargs )

此方法将其所有参数转发给 RobertaTokenizerFast 的 decode()。有关更多信息,请参阅此方法的文档字符串。

ClapModel

class transformers.ClapModel

< >

( config: ClapConfig )

参数

  • config (ClapConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。查看 from_pretrained() 方法来加载模型权重。

此模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头部等)。

此模型也是一个 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般用法和行为的所有信息。

forward

< >

( input_ids: Optional = None input_features: Optional = None is_longer: Optional = None attention_mask: Optional = None position_ids: Optional = None return_loss: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.clap.modeling_clap.ClapOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor ,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供了填充,默认情况下将忽略它。

    索引可以使用 AutoTokenizer 获取。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor ,形状为 (batch_size, sequence_length),可选) — 掩码以避免对填充标记索引执行注意力。在 [0, 1] 中选择的掩码值:

    • 1 表示**未屏蔽**的标记,
    • 0 表示**已屏蔽**的标记。

    什么是注意力掩码?

  • position_ids (torch.LongTensor ,形状为 (batch_size, sequence_length),可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • input_features (torch.FloatTensor ,形状为 (batch_size, num_channels, height, width)) — 输入音频特征。这应该由 ClapFeatureExtractor 类返回,您也可以从 AutoFeatureExtractor 中检索该类。有关详细信息,请参阅 ClapFeatureExtractor.__call__()
  • return_loss (bool, 可选) — 是否返回对比损失。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。 有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。 有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.models.clap.modeling_clap.ClapOutputtuple(torch.FloatTensor)

一个 transformers.models.clap.modeling_clap.ClapOutput 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),包含根据配置 (<class 'transformers.models.clap.configuration_clap.ClapConfig'>) 和输入的不同元素。

  • loss (形状为 (1,)torch.FloatTensor, 可选, 当 return_lossTrue 时返回) — 音频-文本相似度的对比损失。
  • logits_per_audio (形状为 (audio_batch_size, text_batch_size)torch.FloatTensor) — audio_embedstext_embeds 之间的缩放点积分数。这表示音频-文本相似度分数。
  • logits_per_text (形状为 (text_batch_size, audio_batch_size)torch.FloatTensor) — text_embedsaudio_embeds 之间的缩放点积分数。这表示文本-音频相似度分数。
  • text_embeds (形状为 (batch_size, output_dimtorch.FloatTensor) — 通过将投影层应用于 ClapTextModel 的池化输出获得的文本嵌入。
  • audio_embeds (形状为 (batch_size, output_dimtorch.FloatTensor) — 通过将投影层应用于 ClapAudioModel 的池化输出获得的音频嵌入。
  • text_model_output (BaseModelOutputWithPooling) — ClapTextModel 的输出。
  • audio_model_output (BaseModelOutputWithPooling) — ClapAudioModel 的输出。

ClapModel 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from datasets import load_dataset
>>> from transformers import AutoProcessor, ClapModel

>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]

>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> processor = AutoProcessor.from_pretrained("laion/clap-htsat-unfused")

>>> input_text = ["Sound of a dog", "Sound of vaccum cleaner"]

>>> inputs = processor(text=input_text, audios=audio_sample, return_tensors="pt", padding=True)

>>> outputs = model(**inputs)
>>> logits_per_audio = outputs.logits_per_audio  # this is the audio-text similarity score
>>> probs = logits_per_audio.softmax(dim=-1)  # we can take the softmax to get the label probabilities

get_text_features

< >

( input_ids: Optional = None attention_mask: Optional = None position_ids: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) text_features (torch.FloatTensor 形状为 (batch_size, output_dim)

参数

  • input_ids (torch.LongTensor 形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。如果您提供填充,默认情况下将忽略它。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor 形状为 (batch_size, sequence_length), 可选) — 掩码以避免对填充标记索引执行注意力。在 [0, 1] 中选择的掩码值:

    • 未被掩码 的标记为 1,
    • 被掩码 的标记为 0。

    什么是注意力掩码?

  • position_ids (torch.LongTensor 形状为 (batch_size, sequence_length), 可选) — 位置嵌入中每个输入序列标记的位置索引。在 [0, config.max_position_embeddings - 1] 范围内选择。

    什么是位置 ID?

  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

text_features (torch.FloatTensor 形状为 (batch_size, output_dim)

通过将投影层应用于 ClapTextModel 的池化输出获得的文本嵌入。

ClapModel 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, ClapModel

>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> tokenizer = AutoTokenizer.from_pretrained("laion/clap-htsat-unfused")

>>> inputs = tokenizer(["the sound of a cat", "the sound of a dog"], padding=True, return_tensors="pt")
>>> text_features = model.get_text_features(**inputs)

get_audio_features

< >

( input_features: Optional = None is_longer: Optional = None attention_mask: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) audio_features (torch.FloatTensor 形状为 (batch_size, output_dim)

参数

  • input_features (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)) — 输入音频特征。这应该由 ClapFeatureExtractor 类返回,您也可以从 AutoFeatureExtractor 中检索。有关详细信息,请参阅 ClapFeatureExtractor.__call__()
  • is_longer (torch.FloatTensor,形状为 (batch_size, 1),*可选*) — 音频剪辑是否比 max_length 长。如果为 True,则将启用特征融合以增强特征。
  • output_attentions (bool,*可选*) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool,*可选*) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool,*可选*) — 是否返回 ModelOutput 而不是普通元组。

返回值

audio_features (torch.FloatTensor 形状为 (batch_size, output_dim)

通过将投影层应用于 ClapAudioModel 的池化输出获得的音频嵌入。

ClapModel 的前向方法,覆盖了 __call__ 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoFeatureExtractor, ClapModel
>>> import torch

>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> feature_extractor = AutoFeatureExtractor.from_pretrained("laion/clap-htsat-unfused")
>>> random_audio = torch.rand((16_000))
>>> inputs = feature_extractor(random_audio, return_tensors="pt")
>>> audio_features = model.get_audio_features(**inputs)

ClapTextModel

transformers.ClapTextModel

< >

( config add_pooling_layer = True )

该模型可以作为编码器(仅具有自注意力机制)以及解码器,在这种情况下,在自注意力层之间添加一层交叉注意力层,遵循 Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser 和 Illia Polosukhin 在_Attention is all you need_中描述的架构。

为了充当解码器,需要使用将配置的 is_decoder 参数设置为 True 来初始化模型。要在 Seq2Seq 模型中使用,需要使用 is_decoder 参数和 add_cross_attention 都设置为 True 来初始化模型;然后,encoder_hidden_states 将作为输入传递给前向传递。

.. _Attention is all you need: https://arxiv.org/abs/1706.03762

forward

< >

( input_ids: Optional = None attention_mask: Optional = None token_type_ids: Optional = None position_ids: Optional = None head_mask: Optional = None inputs_embeds: Optional = None encoder_hidden_states: Optional = None encoder_attention_mask: Optional = None past_key_values: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None )

encoder_hidden_states (torch.FloatTensor ,形状为 (batch_size, sequence_length, hidden_size),可选): 编码器最后一层输出的隐藏状态序列。如果模型被配置为解码器,则在交叉注意力中使用。 encoder_attention_mask (torch.FloatTensor ,形状为 (batch_size, sequence_length),可选): 掩码,用于避免对编码器输入的填充标记索引执行注意力。如果模型被配置为解码器,则在交叉注意力中使用此掩码。掩码值在 [0, 1] 中选择

  • 1 表示**未被屏蔽**的标记,
  • 0 表示**被屏蔽**的标记。 past_key_values (长度为 config.n_layerstuple(tuple(torch.FloatTensor)),每个元组包含 4 个形状为 (batch_size, num_heads, sequence_length - 1, embed_size_per_head) 的张量): 包含注意力块的预计算键和值隐藏状态。可用于加速解码。

如果使用了 past_key_values,则用户可以选择仅输入形状为 (batch_size, 1) 的最后 decoder_input_ids(那些没有将其过去的键值状态提供给此模型的 decoder_input_ids),而不是输入形状为 (batch_size, sequence_length) 的所有 decoder_input_ids。 use_cache (bool,可选): 如果设置为 True,则返回 past_key_values 键值状态,并且可以使用这些状态来加速解码(请参阅 past_key_values)。

ClapTextModelWithProjection

transformers.ClapTextModelWithProjection

< >

( config: ClapTextConfig )

参数

  • config (ClapConfig) — 模型配置类,包含模型的所有参数。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法来加载模型权重。

CLAP 文本模型,顶部带有投影层(池化输出顶部的线性层)。

此模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头部等)。

此模型也是一个 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般用法和行为的所有信息。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None position_ids: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.clap.modeling_clap.ClapTextModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor ,形状为 (batch_size, sequence_length)) — 词汇表中输入序列标记的索引。 如果您提供填充,默认情况下将忽略它。

    可以使用 AutoTokenizer 获取索引。 有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor ,形状为 (batch_size, sequence_length),可选) — 掩码,用于避免对填充标记索引执行注意力。 在 [0, 1] 中选择的掩码值:

    • 未屏蔽标记为 1,
    • 已屏蔽标记为 0。

    什么是注意力掩码?

  • **position_ids** (形状为 `(batch_size, sequence_length)` 的 `torch.LongTensor`,可选) — 位置嵌入中每个输入序列标记的位置索引。在 `[0, config.max_position_embeddings - 1]` 范围内选择。

    什么是位置 ID?

  • **output_attentions** (`bool`,可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的 `attentions`。
  • **output_hidden_states** (`bool`,可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的 `hidden_states`。
  • **return_dict** (`bool`,可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.models.clap.modeling_clap.ClapTextModelOutputtuple(torch.FloatTensor)

`transformers.models.clap.modeling_clap.ClapTextModelOutput` 或 `torch.FloatTensor` 元组(如果传递了 `return_dict=False` 或 `config.return_dict=False`)包含根据配置(`<class 'transformers.models.clap.configuration_clap.ClapTextConfig'>`)和输入而定的各种元素。

  • **text_embeds** (形状为 `(batch_size, output_dim)` 的 `torch.FloatTensor`,可选,当模型使用 `with_projection=True` 初始化时返回) — 通过将投影层应用于 pooler_output 获得的文本嵌入。

  • **last_hidden_state** (形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor`) — 模型最后一层输出处的隐藏状态序列。

  • **hidden_states** (`tuple(torch.FloatTensor)`,可选,当传递 `output_hidden_states=True` 或 `config.output_hidden_states=True` 时返回) — 形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor` 元组(如果模型有嵌入层,则一个用于嵌入的输出 + 一个用于每一层的输出)。

    模型在每一层输出处的隐藏状态以及可选的初始嵌入输出。

  • **attentions** (`tuple(torch.FloatTensor)`,可选,当传递 `output_attentions=True` 或 `config.output_attentions=True` 时返回) — 形状为 `(batch_size, num_heads, sequence_length, sequence_length)` 的 `torch.FloatTensor` 元组(每一层一个)。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

ClapTextModelWithProjection 前向方法重写了 `__call__` 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, ClapTextModelWithProjection

>>> model = ClapTextModelWithProjection.from_pretrained("laion/clap-htsat-unfused")
>>> tokenizer = AutoTokenizer.from_pretrained("laion/clap-htsat-unfused")

>>> inputs = tokenizer(["a sound of a cat", "a sound of a dog"], padding=True, return_tensors="pt")

>>> outputs = model(**inputs)
>>> text_embeds = outputs.text_embeds

ClapAudioModel

transformers.ClapAudioModel

< >

( config: ClapAudioConfig )

forward

< >

( input_features: Optional = None is_longer: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

参数

  • input_features (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)) — 输入音频特征。这应该由 ClapFeatureExtractor 类返回,您也可以从 AutoFeatureExtractor 中检索该类。有关详细信息,请参阅 ClapFeatureExtractor.__call__()
  • is_longer (torch.FloatTensor, 形状为 (batch_size, 1), 可选) — 音频剪辑是否长于 max_length。如果为 True,则将启用特征融合以增强特征。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.modeling_outputs.BaseModelOutputWithPoolingtuple(torch.FloatTensor)

一个 transformers.modeling_outputs.BaseModelOutputWithPooling 或一个 torch.FloatTensor 的元组(如果传递了 return_dict=Falseconfig.return_dict=False),其中包含根据配置 (<class 'transformers.models.clap.configuration_clap.ClapAudioConfig'>) 和输入而定的各种元素。

  • **last_hidden_state** (形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor`) — 模型最后一层输出处的隐藏状态序列。

  • pooler_output (torch.FloatTensor 形状为 (batch_size, hidden_size)) — 序列第一个标记(分类标记)的最后一层隐藏状态,经过用于辅助预训练任务的层的进一步处理。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类标记。线性层权重在预训练期间从下一个句子预测(分类)目标中训练得到。

  • **hidden_states** (`tuple(torch.FloatTensor)`,可选,当传递 `output_hidden_states=True` 或 `config.output_hidden_states=True` 时返回) — 形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor` 元组(如果模型有嵌入层,则一个用于嵌入的输出 + 一个用于每一层的输出)。

    模型在每一层输出处的隐藏状态以及可选的初始嵌入输出。

  • **attentions** (`tuple(torch.FloatTensor)`,可选,当传递 `output_attentions=True` 或 `config.output_attentions=True` 时返回) — 形状为 `(batch_size, num_heads, sequence_length, sequence_length)` 的 `torch.FloatTensor` 元组(每一层一个)。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

ClapAudioModel 前向方法,覆盖 __call__ 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from datasets import load_dataset
>>> from transformers import AutoProcessor, ClapAudioModel

>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]

>>> model = ClapAudioModel.from_pretrained("laion/clap-htsat-fused")
>>> processor = AutoProcessor.from_pretrained("laion/clap-htsat-fused")

>>> inputs = processor(audios=audio_sample, return_tensors="pt")

>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state

ClapAudioModelWithProjection

transformers.ClapAudioModelWithProjection

< >

( config: ClapAudioConfig )

参数

  • config (ClapConfig) — 包含模型所有参数的模型配置类。 使用配置文件初始化不会加载与模型关联的权重,只会加载配置。 查看 from_pretrained() 方法来加载模型权重。

CLAP 音频模型,顶部带有投影层(在池化输出之上有一个线性层)。

此模型继承自 PreTrainedModel。查看超类文档以了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头部等)。

此模型也是一个 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参考 PyTorch 文档以了解有关一般用法和行为的所有信息。

forward

< >

( input_features: Optional = None is_longer: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.models.clap.modeling_clap.ClapAudioModelOutputtuple(torch.FloatTensor)

参数

  • input_features (torch.FloatTensor 形状为 (batch_size, num_channels, height, width)) — 输入音频特征。 这应该由 ClapFeatureExtractor 类返回,您也可以从 AutoFeatureExtractor 中检索。 有关详细信息,请参阅 ClapFeatureExtractor.__call__()
  • is_longer (torch.FloatTensor, 形状为 (batch_size, 1), 可选) — 音频剪辑是否长于 max_length。 如果为 True,则将启用特征融合以增强特征。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的 `attentions`。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的 `hidden_states`。
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。

返回值

transformers.models.clap.modeling_clap.ClapAudioModelOutputtuple(torch.FloatTensor)

transformers.models.clap.modeling_clap.ClapAudioModelOutputtorch.FloatTensor 元组(如果传递了 return_dict=Falseconfig.return_dict=False)包含根据配置 (<class 'transformers.models.clap.configuration_clap.ClapAudioConfig'>) 和输入的不同元素。

  • audio_embeds (形状为 (batch_size, hidden_size)torch.FloatTensor) — 通过将投影层应用于 pooler_output 获得的音频嵌入。

  • **last_hidden_state** (形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor`) — 模型最后一层输出处的隐藏状态序列。

  • **attentions** (`tuple(torch.FloatTensor)`,可选,当传递 `output_attentions=True` 或 `config.output_attentions=True` 时返回) — 形状为 `(batch_size, num_heads, sequence_length, sequence_length)` 的 `torch.FloatTensor` 元组(每一层一个)。

    注意力 softmax 之后的注意力权重,用于计算自注意力头中的加权平均值。

  • **hidden_states** (`tuple(torch.FloatTensor)`,可选,当传递 `output_hidden_states=True` 或 `config.output_hidden_states=True` 时返回) — 形状为 `(batch_size, sequence_length, hidden_size)` 的 `torch.FloatTensor` 元组(如果模型有嵌入层,则一个用于嵌入的输出 + 一个用于每一层的输出)。

    模型在每一层输出处的隐藏状态以及可选的初始嵌入输出。

ClapAudioModelWithProjection 前向方法,覆盖 __call__ 特殊方法。

尽管前向传递的方案需要在此函数中定义,但之后应该调用 Module 实例而不是此实例,因为前者负责运行前处理和后处理步骤,而后者则默默地忽略它们。

示例

>>> from datasets import load_dataset
>>> from transformers import ClapAudioModelWithProjection, ClapProcessor

>>> model = ClapAudioModelWithProjection.from_pretrained("laion/clap-htsat-fused")
>>> processor = ClapProcessor.from_pretrained("laion/clap-htsat-fused")

>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]

>>> inputs = processor(audios=audio_sample, return_tensors="pt")
>>> outputs = model(**inputs)
>>> audio_embeds = outputs.audio_embeds
< > 在 GitHub 上更新