Transformers 文档
Kyutai 语音转文本
并获得增强的文档体验
开始使用
Kyutai 语音转文本
概述
Kyutai STT 是一种基于 Mimi 编解码器的语音转文本模型架构,它以流式方式将音频编码为离散的词元,并使用 Moshi 类似的自回归解码器。Kyutai 实验室已发布两个模型检查点
- kyutai/stt-1b-en_fr:一个 10 亿参数模型,能够转录英语和法语
- kyutai/stt-2.6b-en:一个 26 亿参数模型,仅专注于英语,针对最大转录准确性进行了优化

使用技巧
推理
import torch
from datasets import load_dataset, Audio
from transformers import KyutaiSpeechToTextProcessor, KyutaiSpeechToTextForConditionalGeneration
# 1. load the model and the processor
torch_device = "cuda" if torch.cuda.is_available() else "cpu"
model_id = "kyutai/stt-2.6b-en-trfs"
processor = KyutaiSpeechToTextProcessor.from_pretrained(model_id)
model = KyutaiSpeechToTextForConditionalGeneration.from_pretrained(model_id, device_map=torch_device, torch_dtype="auto")
# 2. load audio samples
ds = load_dataset(
"hf-internal-testing/librispeech_asr_dummy", "clean", split="validation"
)
ds = ds.cast_column("audio", Audio(sampling_rate=24000))
# 3. prepare the model inputs
inputs = processor(
ds[0]["audio"]["array"],
)
inputs.to(torch_device)
# 4. infer the model
output_tokens = model.generate(**inputs)
# 5. decode the generated tokens
print(processor.batch_decode(output_tokens, skip_special_tokens=True))批量推理
import torch
from datasets import load_dataset, Audio
from transformers import KyutaiSpeechToTextProcessor, KyutaiSpeechToTextForConditionalGeneration
# 1. load the model and the processor
torch_device = "cuda" if torch.cuda.is_available() else "cpu"
model_id = "kyutai/stt-2.6b-en-trfs"
processor = KyutaiSpeechToTextProcessor.from_pretrained(model_id)
model = KyutaiSpeechToTextForConditionalGeneration.from_pretrained(model_id, device_map=torch_device, torch_dtype="auto")
# 2. load audio samples
ds = load_dataset(
"hf-internal-testing/librispeech_asr_dummy", "clean", split="validation"
)
ds = ds.cast_column("audio", Audio(sampling_rate=24000))
# 3. prepare the model inputs
audio_arrays = [ds[i]["audio"]["array"] for i in range(4)]
inputs = processor(audio_arrays, return_tensors="pt", padding=True)
inputs = inputs.to(torch_device)
# 4. infer the model
output_tokens = model.generate(**inputs)
# 5. decode the generated tokens
decoded_outputs = processor.batch_decode(output_tokens, skip_special_tokens=True)
for output in decoded_outputs:
print(output)此模型由 Eustache Le Bihan 贡献。原始代码可以在 此处 找到。
KyutaiSpeechToTextConfig
class transformers.KyutaiSpeechToTextConfig
< 来源 >( codebook_vocab_size = 2049 vocab_size = 4001 hidden_size = 2048 num_hidden_layers = 48 num_attention_heads = 32 num_key_value_heads = None max_position_embeddings = 750 rope_theta = 100000.0 hidden_act = 'silu' head_dim = None initializer_range = 0.02 use_cache = True sliding_window = 375 attention_dropout = 0.0 ffn_dim = 11264 rms_norm_eps = 1e-08 num_codebooks = 32 audio_bos_token_id = 2048 audio_pad_token_id = 69569 tie_word_embeddings = False pad_token_id = 3 bos_token_id = 48000 codec_config = None **kwargs )
参数
- codebook_vocab_size (
int, 可选, 默认为 2049) — 编码本的词汇大小。定义了每个编码本可以表示的不同音频词元的数量。 - vocab_size (
int, 可选, 默认为 4001) — 模型的词汇大小。定义了调用模型时传入的input_ids可以表示的不同词元的数量。 - hidden_size (
int, 可选, 默认为 2048) — 主解码器层和池化层的维度。 - num_hidden_layers (
int, 可选, 默认为 48) — 解码器层的数量。 - num_attention_heads (
int, 可选, 默认为 32) — 主解码器块中每个注意力层的注意力头数量。 - num_key_value_heads (
int, 可选) — 用于实现分组查询注意力 (Grouped Query Attention) 的键值头数量。如果num_key_value_heads=num_attention_heads,模型将使用多头注意力 (MHA);如果num_key_value_heads=1,模型将使用多查询注意力 (MQA),否则使用 GQA。将多头检查点转换为 GQA 检查点时,每个分组键和值头应通过对其组内的所有原始头进行平均池化来构建。更多详情请参阅 这篇论文。如果未指定,默认为num_attention_heads。 - max_position_embeddings (
int, 可选, 默认为 750) — 此模型可能使用的最大序列长度。通常,为以防万一设置为一个较大的值(例如 512 或 1024 或 2048)。 - rope_theta (
float, 可选, 默认为 100000.0) — RoPE 嵌入的基周期。 - hidden_act (
str或function, 可选, 默认为"silu") — 解码器中的非线性激活函数(函数或字符串)。 - head_dim (
int, 可选, 默认为hidden_size // num_attention_heads) — 注意力头维度。 - initializer_range (
float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。 - use_cache (
bool, 可选, 默认为True) — 模型是否应返回最后一个键/值注意力(并非所有模型都使用)。仅当config.is_decoder=True时相关。 - sliding_window (
int, 可选, 默认为 375) — 滑动窗口注意力窗口大小。如果未指定,默认为3000。 - attention_dropout (
float, 可选, 默认为 0.0) — 注意力概率的 dropout 比率。 - ffn_dim (
int, 可选, 默认为 11264) — 主解码器块中“中间”(通常称为前馈)层的维度。必须为偶数。 - rms_norm_eps (
float, 可选, 默认为 1e-08) — rms 归一化层使用的 epsilon 值。 - num_codebooks (
int, 可选, 默认为 32) — 每个音频通道的音频编码本数量。 - audio_bos_token_id (
int, 可选, 默认为 2048) — 编码本词元的流起始词元 ID。 - audio_pad_token_id (
int, 可选, 默认为 69569) — 编码本词元的填充词元 ID。 - tie_word_embeddings (
bool, 可选, 默认为False) — 是否绑定词嵌入。 - pad_token_id (
int, 可选, 默认为 3) — 填充词元 ID。 - bos_token_id (
int, 可选, 默认为 48000) — 文本词元的流起始词元 ID。 - codec_config (PretrainedConfig, 可选) — 编解码器的配置。
- kwargs (可选) — 关键字参数字典。主要包括:
- audio_encoder_config (PretrainedConfig, 可选) — 定义音频编码器配置的配置对象实例。
- depth__config (PretrainedConfig, 可选) — 定义深度解码器配置的配置对象实例。
这是用于存储 KyutaiSpeechToTextForConditionalGeneration 配置的配置类。它用于根据指定参数实例化 Kyutai 语音转文本模型,定义模型架构。使用默认值实例化配置将生成与 2.6b-en 模型类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请参阅 PretrainedConfig 的文档。
示例
>>> from transformers import KyutaiSpeechToTextConfig, KyutaiSpeechToTextForConditionalGeneration
>>> # Initializing a KyutaiSpeechToTextConfig
>>> configuration = KyutaiSpeechToTextConfig()
>>> # Initializing a model
>>> model = KyutaiSpeechToTextForConditionalGeneration(configuration)
>>> # Accessing the model configuration
>>> configuration = model.configKyutaiSpeechToTextProcessor
构建一个 Moshi ASR 处理器,它将 EncodecFeatureExtractor 和 PreTrainedTokenizerFast 包装成一个继承了音频特征提取和分词器功能的单一处理器。有关更多信息,请参阅 call() 的文档字符串。
__call__
< 来源 >( audio: typing.Union[numpy.ndarray, ForwardRef('torch.Tensor'), list[numpy.ndarray], tuple[numpy.ndarray], list['torch.Tensor'], tuple['torch.Tensor'], NoneType] = None **kwargs: typing_extensions.Unpack[transformers.models.kyutai_speech_to_text.processing_kyutai_speech_to_text.KyutaiSpeechToTextProcessorKwargs] ) → BatchFeature
参数
- audio (
np.ndarray,torch.Tensor,list[np.ndarray],list[torch.Tensor]) — 要准备的音频或批量音频。每个音频可以是 NumPy 数组或 PyTorch 张量。 - return_tensors (
str或 TensorType, 可选) — 如果设置,将返回特定框架的张量。可接受的值有:'tf': 返回 TensorFlowtf.constant对象。'pt': 返回 PyTorchtorch.Tensor对象。'np': 返回 NumPynp.ndarray对象。'jax': 返回 JAXjnp.ndarray对象。
返回
一个具有以下字段的 BatchFeature
- input_values — 要输入到模型的音频值列表。当
audio不为None时返回。 - padding_mask — 指定模型应忽略哪些输入值的索引列表。
准备要作为输入提供给模型的主要方法。此方法将 audio 参数转发给 KyutaiSpeechToTextFeatureExtractor 的 __call__()。请参阅上述方法的文档字符串以获取更多信息。
KyutaiSpeechToTextFeatureExtractor
class transformers.KyutaiSpeechToTextFeatureExtractor
< 来源 >( feature_size: int = 1 sampling_rate: int = 24000 padding_value: float = 0.0 chunk_length_s: typing.Optional[float] = None overlap: typing.Optional[float] = None audio_delay_seconds: typing.Optional[float] = 0.0 audio_silence_prefix_seconds: typing.Optional[float] = 0.0 **kwargs )
参数
- feature_size (
int, 可选, 默认为 1) — 提取特征的特征维度。单声道使用 1,立体声使用 2。 - sampling_rate (
int, 可选, 默认为 24000) — 音频波形应数字化赫兹 (Hz) 表示的采样率。 - padding_value (
float, optional, 默认为 0.0) — 用于填充的值。 - chunk_length_s (
float, optional) — 如果定义,音频将被预处理为chunk_length_s长度的块,然后进行编码。 - overlap (
float, optional) — 定义每个块之间的重叠。它用于使用以下公式计算chunk_stride:int((1.0 - self.overlap) * self.chunk_length)。 - audio_delay_seconds (
float, optional, 默认为 0.0) — 在音频之后(右填充)添加的延迟秒数。 - audio_silence_prefix_seconds (
float, optional, 默认为 0.0) — 在音频之前(左填充)添加的静音前缀秒数。
构建 KyutaiSpeechToText 特征提取器。
此特征提取器继承自 SequenceFeatureExtractor,其中包含大部分主要方法。用户应参阅此超类以获取有关这些方法的更多信息。
KyutaiSpeechToTextForConditionalGeneration
class transformers.KyutaiSpeechToTextForConditionalGeneration
< source >( config )
参数
- config (KyutaiSpeechToTextForConditionalGeneration) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法以加载模型权重。
用于生成基于其他模态(例如图像-文本到文本生成)的 token 的 Kyutai 语音到文本模型。
此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch Module,并参阅 PyTorch 文档中有关一般使用和行为的所有内容。
forward
< source >( input_ids: typing.Optional[torch.LongTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None past_key_values: typing.Optional[transformers.cache_utils.Cache] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None cache_position: typing.Optional[torch.LongTensor] = None logits_to_keep: typing.Union[int, torch.Tensor] = 0 **kwargs: typing_extensions.Unpack[transformers.models.kyutai_speech_to_text.modeling_kyutai_speech_to_text.KwargsForCausalLM] ) → transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor形状为(batch_size, sequence_length), 可选) — 词汇表中输入序列 token 的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor形状为(batch_size, sequence_length), 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择在[0, 1]之间:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- position_ids (
torch.LongTensor形状为(batch_size, sequence_length), 可选) — 每个输入序列 token 在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, 可选) — 预计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括模型在解码上一阶段返回的past_key_values,当use_cache=True或config.use_cache=True时。允许两种格式:
- Cache 实例,请参阅我们的 kv 缓存指南;
- 长度为
config.n_layers的tuple(torch.FloatTensor)元组,每个元组包含 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)的张量)。这也被称为传统缓存格式。
模型将输出与输入相同的缓存格式。如果没有传入
past_key_values,则将返回传统缓存格式。如果使用
past_key_values,用户可以选择只输入形状为(batch_size, 1)的最后一个input_ids(那些没有将其过去的键值状态提供给此模型的 token),而不是形状为(batch_size, sequence_length)的所有input_ids。 - inputs_embeds (
torch.FloatTensor形状为(batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望对input_ids索引如何转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。 - labels (
torch.LongTensor形状为(batch_size, sequence_length), 可选) — 用于计算掩码语言建模损失的标签。索引应在[0, ..., config.vocab_size]或 -100 之间(参见input_ids文档字符串)。索引设置为-100的 token 将被忽略(掩码),损失仅针对标签在[0, ..., config.vocab_size]中的 token 计算。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。 - output_attentions (
bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states。 - cache_position (
torch.LongTensor形状为(sequence_length), 可选) — 描绘输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受填充影响。它用于在正确位置更新缓存并推断完整的序列长度。 - logits_to_keep (
Union[int, torch.Tensor], 默认为0) — 如果是int,则计算最后logits_to_keep个 token 的 logits。如果是0,则计算所有input_ids的 logits(特殊情况)。生成时只需要最后一个 token 的 logits,只计算该 token 可以节省内存,这对于长序列或大词汇量来说非常重要。如果是torch.Tensor,则必须是 1D,对应于序列长度维度中要保留的索引。这在使用打包张量格式(批次和序列长度的单个维度)时很有用。
返回
transformers.modeling_outputs.CausalLMOutputWithPast 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.CausalLMOutputWithPast 或一个 torch.FloatTensor 元组(如果传入 return_dict=False 或 config.return_dict=False)包含各种元素,具体取决于配置(KyutaiSpeechToTextConfig)和输入。
-
loss (
torch.FloatTensor形状为(1,),可选,当提供labels时返回) — 语言建模损失(用于下一个 token 预测)。 -
logits (形状为
(batch_size, sequence_length, config.vocab_size)的torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。 -
past_key_values (
Cache, 可选, 当传入use_cache=True或config.use_cache=True时返回) — 它是一个 Cache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预计算的隐藏状态(自注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
hidden_states (
tuple(torch.FloatTensor), 可选, 当传入output_hidden_states=True或config.output_hidden_states=True时返回) —torch.FloatTensor元组(如果模型具有嵌入层,则其中一个用于嵌入输出,加上每个层的一个输出)形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), 可选, 当传入output_attentions=True或config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个)形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
KyutaiSpeechToTextForConditionalGeneration 的 forward 方法,覆盖了 __call__ 特殊方法。
虽然前向传播的配方需要在该函数中定义,但之后应该调用 Module 实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。
示例
>>> import torch
>>> from datasets import load_dataset, Audio
>>> from transformers import KyutaiSpeechToTextProcessor, KyutaiSpeechToTextForConditionalGeneration
>>> torch_device = "cuda" if torch.cuda.is_available() else "cpu"
>>> model_id = "kyutai/stt-2.6b-en-trfs"
>>> processor = KyutaiSpeechToTextProcessor.from_pretrained(model_id)
>>> model = KyutaiSpeechToTextForConditionalGeneration.from_pretrained(model_id, device_map=torch_device)
>>> ds = load_dataset(
... "hf-internal-testing/librispeech_asr_dummy", "clean", split="validation"
... )
>>> ds = ds.cast_column("audio", Audio(sampling_rate=24000))
>>> inputs = processor(
... ds[0]["audio"]["array"],
... )
>>> inputs.to(torch_device)
>>> output_tokens = model.generate(**inputs)
>>> print(processor.batch_decode(output_tokens, skip_special_tokens=True))此方法将其所有参数转发到 GenerationMixin 的 generate() 方法。请参阅此方法的文档字符串以获取更多信息。
KyutaiSpeechToTextModel
class transformers.KyutaiSpeechToTextModel
< source >( config )
参数
- config (KyutaiSpeechToTextModel) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法以加载模型权重。
裸 Kyutai 语音转文本模型输出原始隐藏状态,不带任何特定头部。
此模型继承自 PreTrainedModel。请查看超类文档,了解库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等)。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch Module,并参阅 PyTorch 文档中有关一般使用和行为的所有内容。
forward
< source >( input_ids: typing.Optional[torch.LongTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None past_key_values: typing.Union[list[torch.FloatTensor], transformers.cache_utils.Cache, NoneType] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None cache_position: typing.Optional[torch.LongTensor] = None ) → transformers.modeling_outputs.BaseModelOutputWithPast 或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor形状为(batch_size, sequence_length), 可选) — 词汇表中输入序列 token 的索引。默认情况下将忽略填充。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor形状为(batch_size, sequence_length), 可选) — 避免对填充 token 索引执行注意力操作的掩码。掩码值选择在[0, 1]之间:- 1 表示未被掩码的 token,
- 0 表示被掩码的 token。
- position_ids (
torch.LongTensor形状为(batch_size, sequence_length), 可选) — 每个输入序列 token 在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
Union[list[torch.FloatTensor], ~cache_utils.Cache, NoneType]) — 预计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括模型在解码上一阶段返回的past_key_values,当use_cache=True或config.use_cache=True时。允许两种格式:
- Cache 实例,请参阅我们的 kv 缓存指南;
- 长度为
config.n_layers的tuple(torch.FloatTensor)元组,每个元组包含 2 个形状为(batch_size, num_heads, sequence_length, embed_size_per_head)的张量)。这也被称为传统缓存格式。
模型将输出与输入相同的缓存格式。如果没有传入
past_key_values,则将返回传统缓存格式。如果使用
past_key_values,用户可以选择只输入形状为(batch_size, 1)的最后一个input_ids(那些没有将其过去的键值状态提供给此模型的 token),而不是形状为(batch_size, sequence_length)的所有input_ids。 - inputs_embeds (
torch.FloatTensor形状为(batch_size, sequence_length, hidden_size), 可选) — 可选地,您可以选择直接传入嵌入表示,而不是传入input_ids。如果您希望对input_ids索引如何转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这会很有用。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。 - output_attentions (
bool, 可选) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions。 - output_hidden_states (
bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states。 - return_dict (
bool, 可选) — 是否返回 ModelOutput 而不是普通元组。 - cache_position (
torch.LongTensor形状为(sequence_length), 可选) — 描绘输入序列 token 在序列中位置的索引。与position_ids不同,此张量不受填充影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.BaseModelOutputWithPast 或 tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPast 或一个 torch.FloatTensor 元组(如果传入 return_dict=False 或 config.return_dict=False)包含各种元素,具体取决于配置(KyutaiSpeechToTextConfig)和输入。
-
last_hidden_state (
torch.FloatTensor, 形状为(batch_size, sequence_length, hidden_size)) — 模型最后一层输出的隐藏状态序列。如果使用了
past_key_values,则只输出形状为(batch_size, 1, hidden_size)的序列的最后一个隐藏状态。 -
past_key_values (
Cache, 可选, 当传入use_cache=True或config.use_cache=True时返回) — 它是一个 Cache 实例。有关更多详细信息,请参阅我们的 kv 缓存指南。包含预计算的隐藏状态(自注意力块中的键和值,如果
config.is_encoder_decoder=True则可选地包含交叉注意力块中的键和值),可用于加速顺序解码(参见past_key_values输入)。 -
hidden_states (
tuple(torch.FloatTensor), 可选, 当传入output_hidden_states=True或config.output_hidden_states=True时返回) —torch.FloatTensor元组(如果模型具有嵌入层,则其中一个用于嵌入输出,加上每个层的一个输出)形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), 可选, 当传入output_attentions=True或config.output_attentions=True时返回) —torch.FloatTensor元组(每个层一个)形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
KyutaiSpeechToTextModel 的 forward 方法,覆盖了 __call__ 特殊方法。
虽然前向传播的配方需要在该函数中定义,但之后应该调用 Module 实例而不是这个函数,因为前者负责运行预处理和后处理步骤,而后者则默默地忽略它们。