Transformers 文档
CLAP
并获得增强的文档体验
开始使用
CLAP
概述
CLAP 模型由 Yusong Wu、Ke Chen、Tianyu Zhang、Yuchen Hui、Taylor Berg-Kirkpatrick 和 Shlomo Dubnov 在论文 Large Scale Contrastive Language-Audio pretraining with feature fusion and keyword-to-caption augmentation 中提出。
CLAP(Contrastive Language-Audio Pretraining,对比语言-音频预训练)是一个在多种(音频,文本)对上训练的神经网络。它可以被指示在给定音频的情况下预测最相关的文本片段,而无需直接为该任务进行优化。CLAP 模型使用 SWINTransformer 从对数-梅尔频谱图输入中获取音频特征,并使用 RoBERTa 模型获取文本特征。然后,文本和音频特征都被投影到一个具有相同维度的潜在空间。投影后的音频和文本特征之间的点积被用作相似度分数。
论文摘要如下:
对比学习在多模态表示学习领域取得了显著成功。在本文中,我们提出了一种对比语言-音频预训练的流程,通过将音频数据与自然语言描述相结合来开发音频表示。为实现这一目标,我们首先发布了 LAION-Audio-630K,这是一个包含 633,526 个来自不同数据源的音频-文本对的大型集合。其次,我们通过考虑不同的音频编码器和文本编码器,构建了一个对比语言-音频预训练模型。我们在模型设计中加入了特征融合机制和关键词到标题的增强,以进一步使模型能够处理可变长度的音频输入并提升性能。第三,我们进行了全面的实验,在三个任务上评估我们的模型:文本到音频检索、零样本音频分类和有监督音频分类。结果表明,我们的模型在文本到音频检索任务中取得了优越的性能。在音频分类任务中,该模型在零样本设置下达到了最先进的性能,并能够在非零样本设置下获得与模型结果相当的性能。LAION-Audio-6
该模型由 Younes Belkada 和 Arthur Zucker 贡献。原始代码可在此处找到。
ClapConfig
class transformers.ClapConfig
< 来源 >( text_config = None audio_config = None logit_scale_init_value = 14.285714285714285 projection_dim = 512 projection_hidden_act = 'relu' initializer_factor = 1.0 **kwargs )
参数
- text_config (
dict
, 可选) — 用于初始化 ClapTextConfig 的配置选项字典。 - audio_config (
dict
, 可选) — 用于初始化 ClapAudioConfig 的配置选项字典。 - logit_scale_init_value (
float
, 可选, 默认为 14.29) — logit_scale 参数的初始值。默认值根据原始 CLAP 实现使用。 - projection_dim (
int
, 可选, 默认为 512) — 文本和音频投影层的维度。 - projection_hidden_act (
str
, 可选, 默认为"relu"
) — 投影层的激活函数。 - initializer_factor (
float
, 可选, 默认为 1.0) — 用于缩放模型权重初始化的因子。 - kwargs (可选) — 关键字参数字典。
ClapConfig 是用于存储 ClapModel 配置的配置类。它用于根据指定的参数实例化一个 CLAP 模型,定义文本模型和音频模型的配置。使用默认值实例化配置将产生与 CLAP laion/clap-htsat-fused 架构相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import ClapConfig, ClapModel
>>> # Initializing a ClapConfig with laion-ai/base style configuration
>>> configuration = ClapConfig()
>>> # Initializing a ClapModel (with random weights) from the laion-ai/base style configuration
>>> model = ClapModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
>>> # We can also initialize a ClapConfig from a ClapTextConfig and a ClapAudioConfig
>>> from transformers import ClapTextConfig, ClapAudioConfig
>>> # Initializing a ClapText and ClapAudioConfig configuration
>>> config_text = ClapTextConfig()
>>> config_audio = ClapAudioConfig()
>>> config = ClapConfig.from_text_audio_configs(config_text, config_audio)
from_text_audio_configs
< 来源 >( text_config: ClapTextConfig audio_config: ClapAudioConfig **kwargs ) → ClapConfig
从 clap 文本模型配置和 clap 音频模型配置实例化一个 ClapConfig(或其派生类)。
ClapTextConfig
class transformers.ClapTextConfig
< 来源 >( vocab_size = 50265 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 514 type_vocab_size = 1 initializer_factor = 1.0 layer_norm_eps = 1e-12 projection_dim = 512 pad_token_id = 1 bos_token_id = 0 eos_token_id = 2 position_embedding_type = 'absolute' use_cache = True projection_hidden_act = 'relu' **kwargs )
参数
- vocab_size (
int
, 可选, 默认为 30522) — CLAP 模型的词汇表大小。定义了在调用 ClapTextModel 时,可以通过inputs_ids
表示的不同 token 的数量。 - hidden_size (
int
, 可选, 默认为 768) — 编码器层和池化层的维度。 - num_hidden_layers (
int
, 可选, 默认为 12) — Transformer 编码器中的隐藏层数量。 - num_attention_heads (
int
, 可选, 默认为 12) — Transformer 编码器中每个注意力层的注意力头数量。 - intermediate_size (
int
, 可选, 默认为 3072) — Transformer 编码器中“中间”层(通常称为前馈层)的维度。 - hidden_act (
str
或Callable
, 可选, 默认为"relu"
) — 编码器和池化层中的非线性激活函数(函数或字符串)。如果为字符串,支持"relu"
、"relu"
、"silu"
和"relu_new"
。 - hidden_dropout_prob (
float
, 可选, 默认为 0.1) — 嵌入、编码器和池化层中所有全连接层的丢弃概率。 - attention_probs_dropout_prob (
float
, 可选, 默认为 0.1) — 注意力概率的丢弃率。 - max_position_embeddings (
int
, 可选, 默认为 512) — 该模型可能使用的最大序列长度。通常将其设置为一个较大的值以防万一(例如 512、1024 或 2048)。 - type_vocab_size (
int
, 可选, 默认为 2) — 调用 ClapTextModel 时传入的token_type_ids
的词汇表大小。 - layer_norm_eps (
float
, 可选, 默认为 1e-12) — 层归一化层使用的 epsilon 值。 - position_embedding_type (
str
, 可选, 默认为"absolute"
) — 位置嵌入的类型。从"absolute"
,"relative_key"
,"relative_key_query"
中选择一个。对于位置嵌入,请使用"absolute"
。有关"relative_key"
的更多信息,请参阅 Self-Attention with Relative Position Representations (Shaw et al.)。有关"relative_key_query"
的更多信息,请参阅 Improve Transformer Models with Better Relative Position Embeddings (Huang et al.) 中的 Method 4。 - is_decoder (
bool
, 可选, 默认为False
) — 模型是否用作解码器。如果为False
,则模型用作编码器。 - use_cache (
bool
, 可选, 默认为True
) — 模型是否应返回最后的键/值注意力(并非所有模型都使用)。仅当config.is_decoder=True
时相关。 - projection_hidden_act (
str
, 可选, 默认为"relu"
) — 投影层中的非线性激活函数(函数或字符串)。如果为字符串,支持"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - projection_dim (
int
, 可选, 默认为 512) —ClapTextModelWithProjection
投影头的维度。
这是用于存储 ClapTextModel 配置的配置类。它用于根据指定的参数实例化一个 CLAP 模型,定义模型架构。使用默认值实例化配置将产生与 CLAP calp-hsat-fused 架构相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import ClapTextConfig, ClapTextModel
>>> # Initializing a CLAP text configuration
>>> configuration = ClapTextConfig()
>>> # Initializing a model (with random weights) from the configuration
>>> model = ClapTextModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
ClapAudioConfig
class transformers.ClapAudioConfig
< 来源 >( window_size = 8 num_mel_bins = 64 spec_size = 256 hidden_act = 'gelu' patch_size = 4 patch_stride = [4, 4] num_classes = 527 hidden_size = 768 projection_dim = 512 depths = [2, 2, 6, 2] num_attention_heads = [4, 8, 16, 32] enable_fusion = False hidden_dropout_prob = 0.1 fusion_type = None patch_embed_input_channels = 1 flatten_patch_embeds = True patch_embeds_hidden_size = 96 enable_patch_layer_norm = True drop_path_rate = 0.0 attention_probs_dropout_prob = 0.0 qkv_bias = True mlp_ratio = 4.0 aff_block_r = 4 num_hidden_layers = 4 projection_hidden_act = 'relu' layer_norm_eps = 1e-05 initializer_factor = 1.0 **kwargs )
参数
- window_size (
int
, 可选, 默认为 8) — 频谱图的图像大小 - num_mel_bins (
int
, 可选, 默认为 64) — 每帧使用的梅尔特征数量。应与 `ClapProcessor` 类中使用的值相对应。 - spec_size (
int
, 可选, 默认为 256) — 模型支持的频谱图的期望输入大小。它可以与 `ClapFeatureExtractor` 的输出不同,在这种情况下,输入特征将被调整大小。对应于音频模型的 `image_size`。 - hidden_act (
str
, 可选, 默认为"gelu"
) — 编码器和池化层中的非线性激活函数(函数或字符串)。如果为字符串,支持"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - patch_size (
int
, 可选, 默认为 4) — 音频频谱图的补丁大小 - patch_stride (
list
, 可选, 默认为[4, 4]
) — 音频频谱图的补丁步长 - num_classes (
int
, 可选, 默认为 527) — 用于头训练的类别数量 - hidden_size (
int
, 可选, 默认为 768) — 音频编码器输出的隐藏大小。对应于倒数第二层输出的维度,该输出被发送到投影 MLP 层。 - projection_dim (
int
, 可选, 默认为 512) — 投影层的隐藏大小。 - depths (
list
, 可选, 默认为[2, 2, 6, 2]
) — 用于音频模型的 Swin 层的深度。 - num_attention_heads (
list
, 可选, 默认为[4, 8, 16, 32]
) — 用于音频模型的 Swin 层的注意力头数量。 - enable_fusion (
bool
, 可选, 默认为False
) — 是否启用补丁融合 (patch fusion)。这是原作者的主要贡献,应能获得最佳结果。 - hidden_dropout_prob (
float
, 可选, 默认为 0.1) — 编码器中所有全连接层的丢弃概率。 - fusion_type (
[type]
, 可选) — 用于补丁融合的融合类型。 - patch_embed_input_channels (
int
, 可选, 默认为 1) — 用于输入频谱图的通道数。 - flatten_patch_embeds (
bool
, 可选, 默认为True
) — 是否将补丁嵌入展平。 - patch_embeds_hidden_size (
int
, 可选, 默认为 96) — 补丁嵌入的隐藏大小。它用作输出通道的数量。 - enable_patch_layer_norm (
bool
, 可选, 默认为True
) — 是否为补丁嵌入启用层归一化。 - drop_path_rate (
float
, 可选, 默认为 0.0) — 补丁融合的路径丢弃率。 - attention_probs_dropout_prob (
float
, 可选, 默认为 0.0) — 注意力概率的丢弃率。 - qkv_bias (
bool
, 可选, 默认为True
) — 是否为查询 (query)、键 (key)、值 (value) 投影添加偏置。 - mlp_ratio (
float
, 可选, 默认为 4.0) — MLP 隐藏维度与嵌入维度的比率。 - aff_block_r (
int
, 可选, 默认为 4) — AudioFF 块中使用的缩小比例 (downsize_ratio)。 - num_hidden_layers (
int
, 可选, 默认为 4) — Transformer 编码器中的隐藏层数量。 - projection_hidden_act (
str
, 可选, 默认为"relu"
) — 投影层中的非线性激活函数(函数或字符串)。如果为字符串,则支持"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - layer_norm_eps (
[type]
, 可选, 默认为 1e-05) — 层归一化层使用的 epsilon 值。 - initializer_factor (
float
, 可选, 默认为 1.0) — 初始化所有权重矩阵的因子(应保持为 1,内部用于初始化测试)。
这是一个用于存储 ClapAudioModel 配置的配置类。它根据指定的参数来实例化一个 CLAP 音频编码器,定义了模型架构。使用默认值实例化配置将产生与 CLAP laion/clap-htsat-fused 架构的音频编码器相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import ClapAudioConfig, ClapAudioModel
>>> # Initializing a ClapAudioConfig with laion/clap-htsat-fused style configuration
>>> configuration = ClapAudioConfig()
>>> # Initializing a ClapAudioModel (with random weights) from the laion/clap-htsat-fused style configuration
>>> model = ClapAudioModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
ClapFeatureExtractor
class transformers.ClapFeatureExtractor
< 源 >( feature_size = 64 sampling_rate = 48000 hop_length = 480 max_length_s = 10 fft_window_size = 1024 padding_value = 0.0 return_attention_mask = False frequency_min: float = 0 frequency_max: float = 14000 top_db: typing.Optional[int] = None truncation: str = 'fusion' padding: str = 'repeatpad' **kwargs )
参数
- feature_size (
int
, 可选, 默认为 64) — 提取的梅尔频谱图的特征维度。这对应于梅尔滤波器的数量(n_mels
)。 - sampling_rate (
int
, 可选, 默认为 48000) — 音频文件数字化的采样率,以赫兹 (Hz) 表示。这仅用于警告用户,如果输入到特征提取器的音频采样率不同。 - hop_length (
int
,可选, 默认为 480) — 用于获取梅尔频谱图的 STFT 重叠窗口的长度。音频将被分割成较小的frames
,每个帧之间的步长为hop_length
。 - max_length_s (
int
, 可选, 默认为 10) — 模型的最大输入长度(以秒为单位)。用于填充音频。 - fft_window_size (
int
, 可选, 默认为 1024) — 应用傅里叶变换的窗口大小(以样本为单位)。这控制频谱图的频率分辨率。400 表示在 400 个样本的窗口上计算傅里叶变换。 - padding_value (
float
, 可选, 默认为 0.0) — 用于填充音频的填充值。应对应于静音。 - return_attention_mask (
bool
, 可选, 默认为False
) — 模型是否应返回与输入相对应的注意力掩码。 - frequency_min (
float
, 可选, 默认为 0) — 感兴趣的最低频率。低于此值的 STFT 将不会计算。 - frequency_max (
float
, 可选, 默认为 14000) — 感兴趣的最高频率。高于此值的 STFT 将不会计算。 - top_db (
float
, 可选) — 用于将梅尔频谱图转换为对数尺度的最高分贝值。更多细节请参见audio_utils.power_to_db
函数。 - truncation (
str
, 可选, 默认为"fusion"
) — 长音频输入的截断模式。有两种模式可用:fusion
将使用_random_mel_fusion
,它会堆叠来自梅尔频谱图的 3 个随机裁剪和一个整个梅尔频谱图的下采样版本。如果config.fusion
设置为 True,较短的音频也需要返回 4 个梅尔频谱图,它们将只是从填充音频中获得的原始梅尔频谱图的副本。rand_trunc
将选择梅尔频谱图的一个随机裁剪。
- padding (
str
, 可选, 默认为"repeatpad"
) — 短音频输入的填充模式。最初实现了三种模式:repeatpad
:音频被重复,然后填充以适应max_length
。repeat
:音频被重复,然后剪切以适应max_length
。pad
:音频被填充。
构建一个 CLAP 特征提取器。
该特征提取器继承自 SequenceFeatureExtractor,其中包含大部分主要方法。用户应参考该超类以获取有关这些方法的更多信息。
该类使用短时傅里叶变换 (STFT) 的自定义 numpy 实现从原始语音中提取梅尔滤波器组特征,该实现应与 pytorch 的 torch.stft
等效。
将此实例序列化为 Python 字典。
ClapProcessor
class transformers.ClapProcessor
< 源 >( feature_extractor tokenizer )
参数
- feature_extractor (ClapFeatureExtractor) — 音频处理器是必需的输入。
- tokenizer (RobertaTokenizerFast) — 分词器是必需的输入。
构建一个 CLAP 处理器,它将 CLAP 特征提取器和 RoBerta 分词器包装成一个单一的处理器。
ClapProcessor 提供了 ClapFeatureExtractor 和 RobertaTokenizerFast 的所有功能。请参阅 __call__()
和 decode() 了解更多信息。
此方法将其所有参数转发给 RobertaTokenizerFast 的 batch_decode()。有关更多信息,请参阅该方法的文档字符串。
ClapModel
class transformers.ClapModel
< 源 >( config: ClapConfig )
参数
- config (ClapConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
基础的 Clap 模型,输出原始的隐藏状态,顶部没有任何特定的头。
此模型继承自 PreTrainedModel。请查看超类的文档,了解该库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
该模型也是 PyTorch torch.nn.Module 的子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源 >( input_ids: typing.Optional[torch.LongTensor] = None input_features: typing.Optional[torch.FloatTensor] = None is_longer: typing.Optional[torch.BoolTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None return_loss: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.clap.modeling_clap.ClapOutput
or tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor
, 形状为(batch_size, sequence_length)
, 可选) — 词汇表中输入序列标记的索引。默认情况下,填充将被忽略。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- input_features (
torch.FloatTensor
, 形状为(batch_size, num_channels, height, width)
) — 输入音频特征。这应由 ClapFeatureExtractor 类返回,您也可以从 AutoFeatureExtractor 中检索。有关详细信息,请参阅ClapFeatureExtractor.__call__()
。 - is_longer (
torch.FloatTensor
, 形状为(batch_size, 1)
, 可选) — 音频剪辑是否长于max_length
。如果为True
,将启用特征融合以增强特征。 - attention_mask (
torch.Tensor
, 形状为(batch_size, sequence_length)
, 可选) — 避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]
中:- 1 表示 未被屏蔽 的标记,
- 0 表示 被屏蔽 的标记。
- position_ids (
torch.LongTensor
,形状为(batch_size, sequence_length)
,可选) — 位置嵌入中每个输入序列词元的位置索引。在[0, config.n_positions - 1]
范围内选择。 - return_loss (
bool
,可选) — 是否返回对比损失。 - output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.models.clap.modeling_clap.ClapOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.clap.modeling_clap.ClapOutput
或一个 torch.FloatTensor
的元组 (如果传递了 return_dict=False
或当 config.return_dict=False
时),根据配置 (ClapConfig) 和输入包含不同的元素。
- loss (
torch.FloatTensor
,形状为(1,)
,可选,当return_loss
为True
时返回) — 音频-文本相似度的对比损失。 - logits_per_audio (
torch.FloatTensor
,形状为(audio_batch_size, text_batch_size)
) —audio_embeds
和text_embeds
之间的缩放点积得分。这表示音频-文本相似度得分。 - logits_per_text (
torch.FloatTensor
,形状为(text_batch_size, audio_batch_size)
) —text_embeds
和audio_embeds
之间的缩放点积得分。这表示文本-音频相似度得分。 - text_embeds (
torch.FloatTensor
,形状为(batch_size, output_dim)
) — 通过将投影层应用于 ClapTextModel 的池化输出而获得的文本嵌入。 - audio_embeds (
torch.FloatTensor
,形状为(batch_size, output_dim)
) — 通过将投影层应用于 ClapAudioModel 的池化输出而获得的音频嵌入。 - text_model_output (
<class '~modeling_outputs.BaseModelOutputWithPooling'>.text_model_output
,默认为None
) — ClapTextModel 的输出。 - audio_model_output (
<class '~modeling_outputs.BaseModelOutputWithPooling'>.audio_model_output
,默认为None
) — ClapAudioModel 的输出。
ClapModel 的前向方法,重写了 __call__
特殊方法。
尽管前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from datasets import load_dataset
>>> from transformers import AutoProcessor, ClapModel
>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]
>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> processor = AutoProcessor.from_pretrained("laion/clap-htsat-unfused")
>>> input_text = ["Sound of a dog", "Sound of vaccum cleaner"]
>>> inputs = processor(text=input_text, audios=audio_sample, return_tensors="pt", padding=True)
>>> outputs = model(**inputs)
>>> logits_per_audio = outputs.logits_per_audio # this is the audio-text similarity score
>>> probs = logits_per_audio.softmax(dim=-1) # we can take the softmax to get the label probabilities
get_text_features
< 源码 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → text_features (torch.FloatTensor
,形状为 (batch_size, output_dim)
)
参数
- input_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 词汇表中输入序列词元的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获得索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充词元索引上执行注意力的掩码。掩码值在[0, 1]
中选择:- 1 表示词元未被掩码,
- 0 表示词元被掩码。
- position_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 位置嵌入中每个输入序列词元的位置索引。在[0, config.n_positions - 1]
范围内选择。 - output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
text_features (torch.FloatTensor
, 形状为 (batch_size, output_dim
)
通过将投影层应用于 ClapTextModel 的池化输出而获得的文本嵌入。
示例
>>> from transformers import AutoTokenizer, ClapModel
>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> tokenizer = AutoTokenizer.from_pretrained("laion/clap-htsat-unfused")
>>> inputs = tokenizer(["the sound of a cat", "the sound of a dog"], padding=True, return_tensors="pt")
>>> text_features = model.get_text_features(**inputs)
get_audio_features
< 源码 >( input_features: typing.Optional[torch.Tensor] = None is_longer: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → audio_features (torch.FloatTensor
,形状为 (batch_size, output_dim)
)
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, num_channels, height, width)
) — 输入音频特征。这应该由 ClapFeatureExtractor 类返回,你也可以从 AutoFeatureExtractor 获取。有关详细信息,请参阅ClapFeatureExtractor.__call__()
。 - is_longer (
torch.FloatTensor
,形状为(batch_size, 1)
,可选) — 音频剪辑是否长于max_length
。如果为True
,将启用特征融合以增强特征。 - attention_mask (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充词元索引上执行注意力的掩码。掩码值在[0, 1]
中选择:- 1 表示词元未被掩码,
- 0 表示词元被掩码。
- output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
audio_features (torch.FloatTensor
,形状为 (batch_size, output_dim)
)
通过将投影层应用于 ClapAudioModel 的池化输出而获得的音频嵌入。
示例
>>> from transformers import AutoFeatureExtractor, ClapModel
>>> import torch
>>> model = ClapModel.from_pretrained("laion/clap-htsat-unfused")
>>> feature_extractor = AutoFeatureExtractor.from_pretrained("laion/clap-htsat-unfused")
>>> random_audio = torch.rand((16_000))
>>> inputs = feature_extractor(random_audio, return_tensors="pt")
>>> audio_features = model.get_audio_features(**inputs)
ClapTextModel
class transformers.ClapTextModel
< 源码 >( config add_pooling_layer = True )
参数
- config (ClapTextModel) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法以加载模型权重。
- add_pooling_layer (
bool
,可选,默认为True
) — 是否添加池化层。
该模型既可以作为编码器(仅使用自注意力),也可以作为解码器。在作为解码器的情况下,会在自注意力层之间添加一个交叉注意力层,遵循 Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser 和 Illia Polosukhin 在 Attention is all you need_ 中描述的架构。
要作为解码器使用,模型需要在初始化时将配置的 is_decoder
参数设置为 True
。要在 Seq2Seq 模型中使用,模型需要在初始化时将 is_decoder
参数和 add_cross_attention
都设置为 True
;然后,在前向传递中需要一个 encoder_hidden_states
作为输入。
.. _Attention is all you need: https://huggingface.co/papers/1706.03762
此模型继承自 PreTrainedModel。请查看超类的文档,了解该库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
该模型也是 PyTorch torch.nn.Module 的子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源码 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None encoder_hidden_states: typing.Optional[torch.Tensor] = None encoder_attention_mask: typing.Optional[torch.Tensor] = None past_key_values: typing.Optional[list[torch.FloatTensor]] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 词汇表中输入序列词元的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获得索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充词元索引上执行注意力的掩码。掩码值在[0, 1]
中选择:- 1 表示词元未被掩码,
- 0 表示词元被掩码。
- token_type_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于指示输入的第一部分和第二部分的段词元索引。索引在[0, 1]
中选择:- 0 对应于 *A 句* 词元,
- 1 对应于 *B 句* 词元。
- position_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 位置嵌入中每个输入序列词元的位置索引。在[0, config.n_positions - 1]
范围内选择。 - head_mask (
torch.Tensor
,形状为(num_heads,)
或(num_layers, num_heads)
,可选) — 用于置零自注意力模块中选定头的掩码。掩码值在[0, 1]
中选择:- 1 表示头未被掩码,
- 0 表示头被掩码。
- inputs_embeds (
torch.Tensor
,形状为(batch_size, sequence_length, hidden_size)
,可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递input_ids
。如果你想比模型内部的嵌入查找矩阵更好地控制如何将input_ids
索引转换为关联向量,这将非常有用。 - encoder_hidden_states (
torch.Tensor
,形状为(batch_size, sequence_length, hidden_size)
,可选) — 编码器最后一层输出的隐藏状态序列。如果模型被配置为解码器,则用于交叉注意力。 - encoder_attention_mask (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免对编码器输入的填充词元索引执行注意力的掩码。如果模型被配置为解码器,则此掩码用于交叉注意力。掩码值在[0, 1]
中选择:- 1 表示词元未被掩码,
- 0 表示词元被掩码。
- past_key_values (
list[torch.FloatTensor]
,可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常是在解码的前一个阶段由模型返回的past_key_values
,当use_cache=True
或config.use_cache=True
时。允许两种格式:
- 一个 Cache 实例,请参阅我们的 kv 缓存指南;
- 长度为
config.n_layers
的tuple(torch.FloatTensor)
的元组,每个元组有两个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)
的张量。这也称为传统缓存格式。
模型将输出与输入相同的缓存格式。如果未传递
past_key_values
,则将返回传统缓存格式。如果使用
past_key_values
,用户可以选择只输入最后一个input_ids
(那些没有给出其过去键值状态给此模型的词元),形状为(batch_size, 1)
,而不是所有形状为(batch_size, sequence_length)
的input_ids
。 - use_cache (
bool
,可选) — 如果设置为True
,则返回past_key_values
键值状态,并可用于加速解码(请参阅past_key_values
)。 - output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或一个 torch.FloatTensor
的元组 (如果传递了 return_dict=False
或当 config.return_dict=False
时),根据配置 (ClapConfig) 和输入包含不同的元素。
-
last_hidden_state (
torch.FloatTensor
, 形状为(batch_size, sequence_length, hidden_size)
) — 模型最后一层输出的隐藏状态序列。 -
pooler_output (
torch.FloatTensor
,形状为(batch_size, hidden_size)
) — 序列的第一个词元(分类词元)的最后一层隐藏状态,经过用于辅助预训练任务的层进一步处理。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类词元。线性层权重是在预训练期间从下一句预测(分类)目标中训练的。 -
hidden_states (
tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或当config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入层的输出,+ 每个层一个用于其输出),形状为(batch_size, sequence_length, hidden_size)
。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或当config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
-
cross_attentions (
tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
且config.add_cross_attention=True
或当config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。解码器交叉注意力层的注意力权重,在注意力 softmax 之后,用于计算交叉注意力头中的加权平均。
-
past_key_values (
Cache
,可选,当传递use_cache=True
或当config.use_cache=True
时返回) — 这是一个 Cache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预先计算的隐藏状态(自注意力块中的键和值,以及如果
config.is_encoder_decoder=True
,则在交叉注意力块中),可用于(参见past_key_values
输入)加速顺序解码。
ClapTextModel 的前向方法,重写了 __call__
特殊方法。
尽管前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
ClapTextModelWithProjection
class transformers.ClapTextModelWithProjection
< 源码 >( config: ClapTextConfig )
参数
- config (ClapTextConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法以加载模型权重。
顶部带有投影层的 Clap 模型(在池化输出之上有一个线性层)。
此模型继承自 PreTrainedModel。请查看超类的文档,了解该库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
该模型也是 PyTorch torch.nn.Module 的子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源码 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.clap.modeling_clap.ClapTextModelOutput
或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 词汇表中输入序列词元的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获得索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 用于避免在填充词元索引上执行注意力的掩码。掩码值在[0, 1]
中选择:- 1 表示词元未被掩码,
- 0 表示词元被掩码。
- position_ids (
torch.Tensor
,形状为(batch_size, sequence_length)
,可选) — 位置嵌入中每个输入序列词元的位置索引。在[0, config.n_positions - 1]
范围内选择。 - output_attentions (
bool
,可选) — 是否返回所有注意力层的注意力张量。有关更多详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
,可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量下的hidden_states
。 - return_dict (
bool
,可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.models.clap.modeling_clap.ClapTextModelOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.clap.modeling_clap.ClapTextModelOutput
或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或当 config.return_dict=False
时),根据配置(ClapConfig)和输入,包含各种元素。
-
text_embeds (
torch.FloatTensor
,形状为(batch_size, output_dim)
,可选,当模型以with_projection=True
初始化时返回) — 通过将投影层应用于 pooler_output 获得的文本嵌入。 -
last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, 可选,默认为None
) — 模型最后一层输出的隐藏状态序列。 -
hidden_states (
tuple[torch.FloatTensor, ...]
, 可选, 当传递output_hidden_states=True
或当config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入的输出,另加每个层的一个输出),形状为(batch_size, sequence_length, hidden_size)
。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple[torch.FloatTensor, ...]
, 可选, 当传递output_attentions=True
或当config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
ClapTextModelWithProjection 的 forward 方法会覆盖 __call__
特殊方法。
尽管前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from transformers import AutoTokenizer, ClapTextModelWithProjection
>>> model = ClapTextModelWithProjection.from_pretrained("laion/clap-htsat-unfused")
>>> tokenizer = AutoTokenizer.from_pretrained("laion/clap-htsat-unfused")
>>> inputs = tokenizer(["a sound of a cat", "a sound of a dog"], padding=True, return_tensors="pt")
>>> outputs = model(**inputs)
>>> text_embeds = outputs.text_embeds
ClapAudioModel
forward
< 源代码 >( input_features: typing.Optional[torch.FloatTensor] = None is_longer: typing.Optional[torch.BoolTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, num_channels, height, width)
) — 输入的音频特征。这应该由 ClapFeatureExtractor 类返回,你也可以从 AutoFeatureExtractor 中检索到它。详情请参阅ClapFeatureExtractor.__call__()
。 - is_longer (
torch.FloatTensor
,形状为(batch_size, 1)
, 可选) — 音频片段是否比max_length
长。如果为True
,将启用特征融合以增强特征。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。更多细节请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。更多细节请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPooling 或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或当 config.return_dict=False
时),根据配置(ClapConfig)和输入,包含各种元素。
-
last_hidden_state (
torch.FloatTensor
, 形状为(batch_size, sequence_length, hidden_size)
) — 模型最后一层输出的隐藏状态序列。 -
pooler_output (
torch.FloatTensor
,形状为(batch_size, hidden_size)
) — 序列的第一个词元(分类词元)的最后一层隐藏状态,经过用于辅助预训练任务的层进一步处理。例如,对于 BERT 系列模型,这将返回经过线性层和 tanh 激活函数处理后的分类词元。线性层权重是在预训练期间从下一句预测(分类)目标中训练的。 -
hidden_states (
tuple(torch.FloatTensor)
,可选,当传递output_hidden_states=True
或当config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入层的输出,+ 每个层一个用于其输出),形状为(batch_size, sequence_length, hidden_size)
。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor)
,可选,当传递output_attentions=True
或当config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
ClapAudioModel 的 forward 方法会覆盖 __call__
特殊方法。
尽管前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from datasets import load_dataset
>>> from transformers import AutoProcessor, ClapAudioModel
>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]
>>> model = ClapAudioModel.from_pretrained("laion/clap-htsat-fused")
>>> processor = AutoProcessor.from_pretrained("laion/clap-htsat-fused")
>>> inputs = processor(audios=audio_sample, return_tensors="pt")
>>> outputs = model(**inputs)
>>> last_hidden_state = outputs.last_hidden_state
ClapAudioModelWithProjection
class transformers.ClapAudioModelWithProjection
< 源代码 >( config: ClapAudioConfig )
参数
- config (ClapAudioConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
顶部带有投影层的 Clap 模型(在池化输出之上有一个线性层)。
此模型继承自 PreTrainedModel。请查看超类的文档,了解该库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
该模型也是 PyTorch torch.nn.Module 的子类。可以像常规 PyTorch 模块一样使用它,并参考 PyTorch 文档了解所有与通用用法和行为相关的事项。
forward
< 源代码 >( input_features: typing.Optional[torch.FloatTensor] = None is_longer: typing.Optional[torch.BoolTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.clap.modeling_clap.ClapAudioModelOutput
或 tuple(torch.FloatTensor)
参数
- input_features (
torch.FloatTensor
,形状为(batch_size, num_channels, height, width)
) — 输入的音频特征。这应该由 ClapFeatureExtractor 类返回,你也可以从 AutoFeatureExtractor 中检索到它。详情请参阅ClapFeatureExtractor.__call__()
。 - is_longer (
torch.FloatTensor
,形状为(batch_size, 1)
, 可选) — 音频片段是否比max_length
长。如果为True
,将启用特征融合以增强特征。 - output_attentions (
bool
, 可选) — 是否返回所有注意力层的注意力张量。更多细节请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, 可选) — 是否返回所有层的隐藏状态。更多细节请参阅返回张量下的hidden_states
。 - return_dict (
bool
, 可选) — 是否返回一个 ModelOutput 而不是一个普通的元组。
返回
transformers.models.clap.modeling_clap.ClapAudioModelOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.clap.modeling_clap.ClapAudioModelOutput
或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或当 config.return_dict=False
时),根据配置(ClapConfig)和输入,包含各种元素。
-
audio_embeds (
torch.FloatTensor
,形状为(batch_size, hidden_size)
) — 通过将投影层应用于 pooler_output 获得的音频嵌入。 -
last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, 可选,默认为None
) — 模型最后一层输出的隐藏状态序列。 -
hidden_states (
tuple[torch.FloatTensor, ...]
, 可选, 当传递output_hidden_states=True
或当config.output_hidden_states=True
时返回) —torch.FloatTensor
的元组(如果模型有嵌入层,则一个用于嵌入的输出,另加每个层的一个输出),形状为(batch_size, sequence_length, hidden_size)
。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple[torch.FloatTensor, ...]
, 可选, 当传递output_attentions=True
或当config.output_attentions=True
时返回) —torch.FloatTensor
的元组(每层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
ClapAudioModelWithProjection 的 forward 方法会覆盖 __call__
特殊方法。
尽管前向传递的配方需要在此函数中定义,但之后应该调用 Module
实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from datasets import load_dataset
>>> from transformers import ClapAudioModelWithProjection, ClapProcessor
>>> model = ClapAudioModelWithProjection.from_pretrained("laion/clap-htsat-fused")
>>> processor = ClapProcessor.from_pretrained("laion/clap-htsat-fused")
>>> dataset = load_dataset("hf-internal-testing/ashraq-esc50-1-dog-example")
>>> audio_sample = dataset["train"]["audio"][0]["array"]
>>> inputs = processor(audios=audio_sample, return_tensors="pt")
>>> outputs = model(**inputs)
>>> audio_embeds = outputs.audio_embeds