FastSpeech2Conformer
概述
FastSpeech2Conformer 模型是由 Pengcheng Guo、Florian Boyer、Xuankai Chang、Tomoki Hayashi、Yosuke Higuchi、Hirofumi Inaguma、Naoyuki Kamo、Chenda Li、Daniel Garcia-Romero、Jiatong Shi、Jing Shi、Shinji Watanabe、Kun Wei、Wangyou Zhang 和 Yuekai Zhang 在论文《Recent Developments On Espnet Toolkit Boosted By Conformer》中提出的。
原始 FastSpeech2 论文的摘要是:
非自回归文本转语音 (TTS) 模型(如 FastSpeech (Ren et al., 2019))可以比以前的类似质量的自回归模型更快地合成语音。FastSpeech 模型的训练依赖于一个自回归教师模型进行时长预测(以提供更多信息作为输入)和知识蒸馏(以简化输出中的数据分布),这可以缓解 TTS 中的一对多映射问题(即,多个语音变体对应于同一个文本)。然而,FastSpeech 有几个缺点:1)教师-学生蒸馏流程复杂且耗时,2)从教师模型中提取的时长不够准确,并且从教师模型中蒸馏的目标梅尔谱图由于数据简化而遭受信息损失,这两者都限制了语音质量。在本文中,我们提出了 FastSpeech 2,它解决了 FastSpeech 中的问题,并通过以下方式更好地解决了 TTS 中的一对多映射问题:1)直接使用真实目标训练模型,而不是使用教师简化的输出,2)引入更多语音变体信息(例如,音调、能量和更准确的时长)作为条件输入。具体来说,我们从语音波形中提取时长、音调和能量,并直接将它们作为训练中的条件输入,并在推理中使用预测值。我们进一步设计了 FastSpeech 2s,这是首次尝试直接从文本并行生成语音波形,享受完全端到端推理的好处。实验结果表明:1)FastSpeech 2 的训练速度比 FastSpeech 快 3 倍,而 FastSpeech 2s 享有更快的推理速度;2)FastSpeech 2 和 2s 在语音质量方面优于 FastSpeech,FastSpeech 2 甚至可以超越自回归模型。音频样本可在 https://speechresearch.github.io/fastspeech2/ 获取。
该模型由 Connor Henderson 贡献。原始代码可以在 此处 找到。
🤗 模型架构
实现了 FastSpeech2 的梅尔谱图解码器通用结构,并按照 ESPnet 库中的做法,将传统的 Transformer 块替换为 Conformer 块。
FastSpeech2 模型架构
Conformer 块
卷积模块
🤗 Transformers 使用方法
您可以使用 🤗 Transformers 库在本地运行 FastSpeech2Conformer。
- 首先安装 🤗 Transformers 库、g2p-en
pip install --upgrade pip pip install --upgrade transformers g2p-en
- 使用 Transformers 建模代码分别使用模型和 hifigan 运行推理
from transformers import FastSpeech2ConformerTokenizer, FastSpeech2ConformerModel, FastSpeech2ConformerHifiGan
import soundfile as sf
tokenizer = FastSpeech2ConformerTokenizer.from_pretrained("espnet/fastspeech2_conformer")
inputs = tokenizer("Hello, my dog is cute.", return_tensors="pt")
input_ids = inputs["input_ids"]
model = FastSpeech2ConformerModel.from_pretrained("espnet/fastspeech2_conformer")
output_dict = model(input_ids, return_dict=True)
spectrogram = output_dict["spectrogram"]
hifigan = FastSpeech2ConformerHifiGan.from_pretrained("espnet/fastspeech2_conformer_hifigan")
waveform = hifigan(spectrogram)
sf.write("speech.wav", waveform.squeeze().detach().numpy(), samplerate=22050)
- 结合模型和 hifigan,使用 Transformers 建模代码运行推理
from transformers import FastSpeech2ConformerTokenizer, FastSpeech2ConformerWithHifiGan
import soundfile as sf
tokenizer = FastSpeech2ConformerTokenizer.from_pretrained("espnet/fastspeech2_conformer")
inputs = tokenizer("Hello, my dog is cute.", return_tensors="pt")
input_ids = inputs["input_ids"]
model = FastSpeech2ConformerWithHifiGan.from_pretrained("espnet/fastspeech2_conformer_with_hifigan")
output_dict = model(input_ids, return_dict=True)
waveform = output_dict["waveform"]
sf.write("speech.wav", waveform.squeeze().detach().numpy(), samplerate=22050)
- 使用管道运行推理并指定要使用的声码器
from transformers import pipeline, FastSpeech2ConformerHifiGan
import soundfile as sf
vocoder = FastSpeech2ConformerHifiGan.from_pretrained("espnet/fastspeech2_conformer_hifigan")
synthesiser = pipeline(model="espnet/fastspeech2_conformer", vocoder=vocoder)
speech = synthesiser("Hello, my dog is cooler than you!")
sf.write("speech.wav", speech["audio"].squeeze(), samplerate=speech["sampling_rate"])
FastSpeech2ConformerConfig
类 transformers.FastSpeech2ConformerConfig
< 源代码 >( hidden_size = 384 vocab_size = 78 num_mel_bins = 80 encoder_num_attention_heads = 2 encoder_layers = 4 encoder_linear_units = 1536 decoder_layers = 4 decoder_num_attention_heads = 2 decoder_linear_units = 1536 speech_decoder_postnet_layers = 5 speech_decoder_postnet_units = 256 speech_decoder_postnet_kernel = 5 positionwise_conv_kernel_size = 3 encoder_normalize_before = False decoder_normalize_before = False encoder_concat_after = False decoder_concat_after = False reduction_factor = 1 speaking_speed = 1.0 use_macaron_style_in_conformer = True use_cnn_in_conformer = True encoder_kernel_size = 7 decoder_kernel_size = 31 duration_predictor_layers = 2 duration_predictor_channels = 256 duration_predictor_kernel_size = 3 energy_predictor_layers = 2 energy_predictor_channels = 256 energy_predictor_kernel_size = 3 energy_predictor_dropout = 0.5 energy_embed_kernel_size = 1 energy_embed_dropout = 0.0 stop_gradient_from_energy_predictor = False pitch_predictor_layers = 5 pitch_predictor_channels = 256 pitch_predictor_kernel_size = 5 pitch_predictor_dropout = 0.5 pitch_embed_kernel_size = 1 pitch_embed_dropout = 0.0 stop_gradient_from_pitch_predictor = True encoder_dropout_rate = 0.2 encoder_positional_dropout_rate = 0.2 encoder_attention_dropout_rate = 0.2 decoder_dropout_rate = 0.2 decoder_positional_dropout_rate = 0.2 decoder_attention_dropout_rate = 0.2 duration_predictor_dropout_rate = 0.2 speech_decoder_postnet_dropout = 0.5 max_source_positions = 5000 use_masking = True use_weighted_masking = False num_speakers = None num_languages = None speaker_embed_dim = None is_encoder_decoder = True **kwargs )
参数
- hidden_size (
int
, 可选, 默认值: 384) — 隐藏层的维度。 - vocab_size (
int
, 可选, 默认值: 78) — 词汇表的大小。 - num_mel_bins (
int
, 可选, 默认值: 80) — 滤波器组中使用的梅尔滤波器的数量。 - encoder_num_attention_heads (
int
, 可选, 默认值: 2) — 编码器中注意力头的数量。 - encoder_layers (
int
, *可选*, 默认值为 4) — 编码器中的层数。 - encoder_linear_units (
int
, *可选*, 默认值为 1536) — 编码器线性层中的单元数。 - decoder_layers (
int
, *可选*, 默认值为 4) — 解码器中的层数。 - decoder_num_attention_heads (
int
, *可选*, 默认值为 2) — 解码器中的注意力头数。 - decoder_linear_units (
int
, *可选*, 默认值为 1536) — 解码器线性层中的单元数。 - speech_decoder_postnet_layers (
int
, *可选*, 默认值为 5) — 语音解码器后网络中的层数。 - speech_decoder_postnet_units (
int
, *可选*, 默认值为 256) — 语音解码器后网络层中的单元数。 - speech_decoder_postnet_kernel (
int
, 可选, 默认为 5) — 语音解码器后网络中的卷积核大小。 - positionwise_conv_kernel_size (
int
, 可选, 默认为 3) — 位置感知层中使用的卷积核大小。 - encoder_normalize_before (
bool
, 可选, 默认为False
) — 指定是否在编码器层之前进行标准化。 - decoder_normalize_before (
bool
, 可选, 默认为False
) — 指定是否在解码器层之前进行标准化。 - encoder_concat_after (
bool
, 可选, 默认为False
) — 指定是否在编码器层之后进行拼接。 - decoder_concat_after (
bool
, 可选, 默认为False
) — 指定是否在解码器层之后进行拼接。 - reduction_factor (
int
, 可选, 默认为 1) — 语音帧率降低的因子。 - speaking_speed (
float
, 可选, 默认为 1.0) — 生成语音的速度。 - use_macaron_style_in_conformer (
bool
, 可选, 默认值:True
) — 指定是否在 conformer 中使用马卡龙风格。 - use_cnn_in_conformer (
bool
, 可选, 默认值:True
) — 指定是否在 conformer 中使用卷积神经网络。 - encoder_kernel_size (
int
, 可选, 默认值: 7) — 编码器使用的内核大小。 - decoder_kernel_size (
int
, 可选, 默认值: 31) — 解码器使用的内核大小。 - duration_predictor_layers (
int
, 可选, 默认值: 2) — 时长预测器中的层数。 - duration_predictor_channels (
int
, 可选, 默认值: 256) — 时长预测器中的通道数。 - duration_predictor_kernel_size (
int
, 可选, 默认值: 3) — 时长预测器使用的内核大小。 - energy_predictor_layers (
int
, 可选, 默认值: 2) — 能量预测器中的层数。 - energy_predictor_channels (
int
, 可选, 默认为 256) — 能量预测器中的通道数。 - energy_predictor_kernel_size (
int
, 可选, 默认为 3) — 能量预测器中使用的卷积核大小。 - energy_predictor_dropout (
float
, 可选, 默认为 0.5) — 能量预测器中的 dropout 比率。 - energy_embed_kernel_size (
int
, 可选, 默认为 1) — 能量嵌入层中使用的卷积核大小。 - energy_embed_dropout (
float
, 可选, 默认为 0.0) — 能量嵌入层中的 dropout 比率。 - stop_gradient_from_energy_predictor (
bool
, 可选, 默认为False
) — 指定是否停止来自能量预测器的梯度。 - pitch_predictor_layers (
int
, 可选, 默认为 5) — 音调预测器中的层数。 - pitch_predictor_channels (
int
, 可选, 默认为 256) — 音调预测器中的通道数。 - pitch_predictor_kernel_size (
int
, *可选*, 默认值为 5) — 音调预测器中使用的内核大小。 - pitch_predictor_dropout (
float
, *可选*, 默认值为 0.5) — 音调预测器中的 dropout 率。 - pitch_embed_kernel_size (
int
, *可选*, 默认值为 1) — 音调嵌入层中使用的内核大小。 - pitch_embed_dropout (
float
, *可选*, 默认值为 0.0) — 音调嵌入层中的 dropout 率。 - stop_gradient_from_pitch_predictor (
bool
, *可选*, 默认值为True
) — 指定是否停止来自音调预测器的梯度。 - encoder_dropout_rate (
float
, *可选*, 默认值为 0.2) — 编码器中的 dropout 率。 - encoder_positional_dropout_rate (
float
, *可选*, 默认值为 0.2) — 编码器中的位置 dropout 率。 - encoder_attention_dropout_rate (
float
, *可选*, 默认值为 0.2) — 编码器中的注意力 dropout 率。 - decoder_dropout_rate (
float
, *可选*, 默认值为 0.2) — 解码器中的 dropout 率。 - decoder_positional_dropout_rate (
float
, *可选*, 默认值为 0.2) — 解码器中的位置 dropout 率。 - decoder_attention_dropout_rate (
float
, *可选*, 默认值为 0.2) — 解码器中的注意力 dropout 率。 - duration_predictor_dropout_rate (
float
, *可选*, 默认值为 0.2) — 时长预测器中的 dropout 率。 - speech_decoder_postnet_dropout (
float
, *可选*, 默认值为 0.5) — 语音解码器后置网络中的 dropout 率。 - max_source_positions (
int
, *可选*, 默认值为 5000) — 如果使用"relative"
位置嵌入,则定义最大源输入位置。 - use_masking (
bool
, *可选*, 默认值为True
) — 指定是否在模型中使用掩码。 - **use_weighted_masking** (``bool``, *可选*, 默认为 ``False``) — 指定在模型中是否使用加权掩码。
- **num_speakers** (``int``, *可选*) — 说话人的数量。如果设置为 > 1,则假定说话人 ID 将作为输入提供,并使用说话人 ID 嵌入层。
- **num_languages** (``int``, *可选*) — 语言的数量。如果设置为 > 1,则假定语言 ID 将作为输入提供,并使用语言 ID 嵌入层。
- **speaker_embed_dim** (``int``, *可选*) — 说话人嵌入维度。如果设置为 > 0,则假定 speaker_embedding 将作为输入提供。
- **is_encoder_decoder** (``bool``, *可选*, 默认为 ``True``) — 指定模型是否是编码器-解码器。
这是用于存储 FastSpeech2ConformerModel 配置的配置类。它用于根据指定的参数实例化 FastSpeech2Conformer 模型,定义模型架构。使用默认值实例化配置将产生与 FastSpeech2Conformer espnet/fastspeech2_conformer 架构相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import FastSpeech2ConformerModel, FastSpeech2ConformerConfig
>>> # Initializing a FastSpeech2Conformer style configuration
>>> configuration = FastSpeech2ConformerConfig()
>>> # Initializing a model from the FastSpeech2Conformer style configuration
>>> model = FastSpeech2ConformerModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
FastSpeech2ConformerHifiGanConfig
类 transformers.FastSpeech2ConformerHifiGanConfig
< 源代码 >( model_in_dim = 80 upsample_initial_channel = 512 upsample_rates = [8, 8, 2, 2] upsample_kernel_sizes = [16, 16, 4, 4] resblock_kernel_sizes = [3, 7, 11] resblock_dilation_sizes = [[1, 3, 5], [1, 3, 5], [1, 3, 5]] initializer_range = 0.01 leaky_relu_slope = 0.1 normalize_before = True **kwargs )
参数
- model_in_dim (
int
, 可选, 默认为 80) — 输入对数梅尔频谱图中的频率箱数量。 - upsample_initial_channel (
int
, 可选, 默认为 512) — 上采样网络的输入通道数。 - upsample_rates (
Tuple[int]
或List[int]
, 可选, 默认为[8, 8, 2, 2]
) — 定义上采样网络中每个一维卷积层的步幅的整数元组。 upsample_rates 的长度定义了卷积层的数量,并且必须与 upsample_kernel_sizes 的长度相匹配。 - upsample_kernel_sizes (
Tuple[int]
或List[int]
, 可选, 默认为[16, 16, 4, 4]
) — 定义上采样网络中每个一维卷积层的内核大小的整数元组。 upsample_kernel_sizes 的长度定义了卷积层的数量,并且必须与 upsample_rates 的长度相匹配。 - resblock_kernel_sizes (
Tuple[int]
或List[int]
, 可选, 默认为[3, 7, 11]
) — 定义多感受野融合 (MRF) 模块中一维卷积层的内核大小的整数元组。 - resblock_dilation_sizes (
Tuple[Tuple[int]]
或List[List[int]]
,可选,默认为[[1, 3, 5], [1, 3, 5], [1, 3, 5]]
) — 定义多感受野融合 (MRF) 模块中扩张一维卷积层的扩张率的嵌套整数元组。 - initializer_range (
float
,可选,默认为 0.01) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准偏差。 - leaky_relu_slope (
float
,可选,默认为 0.1) — Leaky ReLU 激活函数使用的负斜率角度。 - normalize_before (
bool
,可选,默认为True
) — 是否在使用声码器的学习均值和方差进行声码化之前对频谱图进行归一化。
这是用于存储 FastSpeech2ConformerHifiGanModel
配置的配置类。它用于根据指定的参数实例化 FastSpeech2Conformer HiFi-GAN 声码器模型,定义模型架构。使用默认值实例化配置将产生与 FastSpeech2Conformer espnet/fastspeech2_conformer_hifigan 架构类似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
示例
>>> from transformers import FastSpeech2ConformerHifiGan, FastSpeech2ConformerHifiGanConfig
>>> # Initializing a FastSpeech2ConformerHifiGan configuration
>>> configuration = FastSpeech2ConformerHifiGanConfig()
>>> # Initializing a model (with random weights) from the configuration
>>> model = FastSpeech2ConformerHifiGan(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
FastSpeech2ConformerWithHifiGanConfig
类 transformers.FastSpeech2ConformerWithHifiGanConfig
< source >( model_config: Dict = None vocoder_config: Dict = None **kwargs )
这是用于存储 FastSpeech2ConformerWithHifiGan 配置的配置类。它用于根据指定的子模型配置实例化 FastSpeech2ConformerWithHifiGanModel
模型,定义模型架构。
使用默认值实例化配置将产生与 FastSpeech2ConformerModel espnet/fastspeech2_conformer 和 FastSpeech2ConformerHifiGan espnet/fastspeech2_conformer_hifigan 架构相似的配置。
配置对象继承自 PretrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PretrainedConfig 的文档。
model_config (FastSpeech2ConformerConfig,可选): 文本转语音模型的配置。 vocoder_config (FastSpeech2ConformerHiFiGanConfig
,可选): 声码器模型的配置。
示例
>>> from transformers import (
... FastSpeech2ConformerConfig,
... FastSpeech2ConformerHifiGanConfig,
... FastSpeech2ConformerWithHifiGanConfig,
... FastSpeech2ConformerWithHifiGan,
... )
>>> # Initializing FastSpeech2ConformerWithHifiGan sub-modules configurations.
>>> model_config = FastSpeech2ConformerConfig()
>>> vocoder_config = FastSpeech2ConformerHifiGanConfig()
>>> # Initializing a FastSpeech2ConformerWithHifiGan module style configuration
>>> configuration = FastSpeech2ConformerWithHifiGanConfig(model_config.to_dict(), vocoder_config.to_dict())
>>> # Initializing a model (with random weights)
>>> model = FastSpeech2ConformerWithHifiGan(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
FastSpeech2ConformerTokenizer
类 transformers.FastSpeech2ConformerTokenizer
< 来源 >( vocab_file bos_token = '<sos/eos>' eos_token = '<sos/eos>' pad_token = '<blank>' unk_token = '<unk>' should_strip_spaces = False **kwargs )
参数
- vocab_file (
str
) — 词汇表文件的路径。 - bos_token (
str
,可选,默认为"<sos/eos>"
) — 序列开始标记。请注意,对于 FastSpeech2,它与eos_token
相同。 - eos_token (
str
,可选,默认为"<sos/eos>"
) — 序列结束标记。请注意,对于 FastSpeech2,它与bos_token
相同。 - pad_token (
str
, 可选, 默认为"<blank>"
) — 用于填充的记号,例如在批处理不同长度的序列时。 - unk_token (
str
, 可选, 默认为"<unk>"
) — 未知记号。不在词汇表中的记号无法转换为 ID,将被设置为该记号。 - should_strip_spaces (
bool
, 可选, 默认为False
) — 是否从记号列表中删除空格。
构造一个 FastSpeech2Conformer 分词器。
__call__
< source >( text: Union = None text_pair: Union = None text_target: Union = None text_pair_target: Union = None add_special_tokens: bool = True padding: Union = False truncation: Union = None max_length: Optional = None stride: int = 0 is_split_into_words: bool = False pad_to_multiple_of: Optional = None padding_side: Optional = None return_tensors: Union = None return_token_type_ids: Optional = None return_attention_mask: Optional = None return_overflowing_tokens: bool = False return_special_tokens_mask: bool = False return_offsets_mapping: bool = False return_length: bool = False verbose: bool = True **kwargs ) → BatchEncoding
参数
- text (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。 每个序列可以是一个字符串或一个字符串列表(预先标记化的字符串)。 如果序列以字符串列表(预先标记化)的形式提供,则必须设置is_split_into_words=True
(以消除与一批序列的歧义)。 - text_pair (
str
,List[str]
,List[List[str]]
, 可选) — 要编码的序列或序列批次。 每个序列可以是一个字符串或一个字符串列表(预先标记化的字符串)。 如果序列以字符串列表(预先标记化)的形式提供,则必须设置is_split_into_words=True
(以消除与一批序列的歧义)。 - text_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。 每个序列可以是一个字符串或一个字符串列表(预先标记化的字符串)。 如果序列以字符串列表(预先标记化)的形式提供,则必须设置is_split_into_words=True
(以消除与一批序列的歧义)。 - text_pair_target (
str
,List[str]
,List[List[str]]
, 可选) — 要编码为目标文本的序列或序列批次。 每个序列可以是一个字符串或一个字符串列表(预先标记化的字符串)。 如果序列以字符串列表(预先标记化)的形式提供,则必须设置is_split_into_words=True
(以消除与一批序列的歧义)。 - add_special_tokens (
bool
, 可选, 默认为True
) — 在对序列进行编码时是否添加特殊标记。 这将使用底层的PretrainedTokenizerBase.build_inputs_with_special_tokens
函数,该函数定义了哪些标记会自动添加到输入 ID 中。 如果要自动添加bos
或eos
标记,则此选项非常有用。 - padding (
bool
,str
或 PaddingStrategy, 可选, 默认为False
) — 激活并控制填充。 接受以下值:True
或'longest'
:填充到批次中最长的序列(如果只提供一个序列,则不填充)。'max_length'
:填充到使用参数max_length
指定的最大长度,或者填充到模型可接受的最大输入长度(如果未提供该参数)。False
或'do_not_pad'
(默认):无填充(即,可以输出具有不同长度序列的批次)。
- truncation (
bool
、str
或 TruncationStrategy, 可选,默认为False
) — 激活并控制截断。接受以下值:True
或'longest_first'
:截断到参数max_length
指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。如果提供了一对序列(或一批序列对),这将逐个标记地截断,从最长序列中删除一个标记。'only_first'
:截断到参数max_length
指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。如果提供了一对序列(或一批序列对),这将仅截断第一个序列。'only_second'
:截断到参数max_length
指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。如果提供了一对序列(或一批序列对),这将仅截断第二个序列。False
或'do_not_truncate'
(默认):不截断(即,可以输出序列长度大于模型最大允许输入大小的批次)。
- max_length (
int
, 可选) — 控制其中一个截断/填充参数使用的最大长度。如果未设置或设置为
None
,并且其中一个截断/填充参数需要最大长度,则将使用预定义的模型最大长度。如果模型没有特定的最大输入长度(如 XLNet),则将停用截断/填充到最大长度。 - stride (
int
, 可选,默认为 0) — 如果与max_length
一起设置为一个数字,则当return_overflowing_tokens=True
时返回的溢出标记将包含来自返回的截断序列末尾的一些标记,以在截断序列和溢出序列之间提供一些重叠。此参数的值定义了重叠标记的数量。 - is_split_into_words (
bool
, 可选,默认为False
) — 输入是否已经预先分词(例如,通过空格分词)。如果设置为True
,则分词器假定输入已经分词(例如,通过空格分词),它将对其进行分词。这对于 NER 或标记分类很有用。 - pad_to_multiple_of (
int
, 可选) — 如果设置,则将序列填充到所提供值的倍数。需要激活padding
。这对于在计算能力>= 7.5
(Volta)的 NVIDIA 硬件上使用 Tensor Cores 特别有用。 - padding_side (
str
, 可选) — 模型应该在哪一侧应用填充。应该在 [‘right’, ‘left’] 中选择。默认值从同名的类属性中选取。 - return_tensors (
str
或 TensorType, 可选) — 如果设置,将返回张量而不是 Python 整数列表。可接受的值为:'tf'
:返回 TensorFlowtf.constant
对象。'pt'
:返回 PyTorchtorch.Tensor
对象。'np'
:返回 Numpynp.ndarray
对象。
- return_token_type_ids (
bool
, 可选) — 是否返回token类型ID。如果保留默认值,将根据特定分词器的默认值返回token类型ID,由return_outputs
属性定义。 - return_attention_mask (
bool
, 可选) — 是否返回注意力掩码。如果保留默认值,将根据特定分词器的默认值返回注意力掩码,由return_outputs
属性定义。 - return_overflowing_tokens (
bool
, 可选, 默认值False
) — 是否返回溢出的标记序列。如果提供了一对输入 ID 序列(或一批对)并且truncation_strategy = longest_first
或True
,则会引发错误而不是返回溢出的标记。 - return_special_tokens_mask (
bool
, 可选, 默认值False
) — 是否返回特殊标记掩码信息。 - return_offsets_mapping (
bool
, 可选, 默认值False
) — 是否为每个标记返回(char_start, char_end)
。这仅在继承自 PreTrainedTokenizerFast 的快速分词器上可用,如果使用 Python 的分词器,此方法将引发
NotImplementedError
。 - return_length (
bool
, 可选, 默认值False
) — 是否返回编码输入的长度。 - verbose (
bool
, 可选, 默认值True
) — 是否打印更多信息和警告。**kwargs — 传递给self.tokenize()
方法
返回值
一个 BatchEncoding ,包含以下字段
-
input_ids — 要输入模型的词符 ID 列表。
-
token_type_ids — 要输入模型的词符类型 ID 列表(当
return_token_type_ids=True
或 “token_type_ids” 在self.model_input_names
中时)。 -
attention_mask — 指定模型应该关注哪些词符的索引列表(当
return_attention_mask=True
或 “attention_mask” 在self.model_input_names
中时)。 -
overflowing_tokens — 溢出词符序列的列表(当指定了
max_length
且return_overflowing_tokens=True
时)。 -
num_truncated_tokens — 被截断的词符数量(当指定了
max_length
且return_overflowing_tokens=True
时)。 -
special_tokens_mask — 由 0 和 1 组成的列表,其中 1 表示添加的特殊词符,0 表示常规序列词符(当
add_special_tokens=True
且return_special_tokens_mask=True
时)。 -
length — 输入的长度(当
return_length=True
时)
对一个或多个序列或一对或多对序列进行词符化并为模型准备的主要方法。
save_vocabulary
< source >( save_directory: str filename_prefix: Optional = None ) → Tuple(str)
将词表和特殊词符文件保存到目录中。
batch_decode
< source >( sequences: Union skip_special_tokens: bool = False clean_up_tokenization_spaces: bool = None **kwargs ) → List[str]
参数
- sequences (
Union[List[int], List[List[int]], np.ndarray, torch.Tensor, tf.Tensor]
) — 已分词化的输入 ID 列表。可以使用__call__
方法获取。 - skip_special_tokens (
bool
, 可选, 默认为False
) — 解码时是否移除特殊标记。 - clean_up_tokenization_spaces (
bool
, 可选) — 是否清除分词空格。如果为None
,则默认为self.clean_up_tokenization_spaces
。 - kwargs (其他关键字参数, 可选) — 将传递给底层模型特定的解码方法。
返回值
List[str]
已解码的句子列表。
通过调用 decode 将标记 ID 列表的列表转换为字符串列表。
FastSpeech2ConformerModel
类 transformers.FastSpeech2ConformerModel
< source >( config: FastSpeech2ConformerConfig )
参数
- config (FastSpeech2ConformerConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
FastSpeech2Conformer 模型。此模型继承自 PreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、剪枝头部等),请查看超类文档。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以获取有关一般用法和行为的所有信息。
FastSpeech 2 模块。
这是 FastSpeech 2 的一个模块,在“FastSpeech 2: Fast and High-Quality End-to-End Text to Speech”https://arxiv.org/abs/2006.04558 中有描述。我们使用 FastPitch: Parallel Text-to-speech with Pitch Prediction 中引入的令牌平均值,而不是量化的音调和能量。编码器和解码器是 Conformer 而不是常规的 Transformer。
forward
< source >( input_ids: LongTensor attention_mask: Optional = None spectrogram_labels: Optional = None duration_labels: Optional = None pitch_labels: Optional = None energy_labels: Optional = None speaker_ids: Optional = None lang_ids: Optional = None speaker_embedding: Optional = None return_dict: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None ) → transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerModelOutput
或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor
形状为(batch_size, sequence_length)
) — 文本向量的输入序列。 - attention_mask (
torch.LongTensor
形状为(batch_size, sequence_length)
, 可选, 默认值为None
) — 用于避免对填充标记索引执行卷积和注意力的掩码。在[0, 1]
中选择的掩码值:0 表示被掩码的标记,1 表示未被掩码的标记。 - spectrogram_labels (
torch.FloatTensor
, 形状为(batch_size, max_spectrogram_length, num_mel_bins)
, 可选, 默认为None
) — 一批填充后的目标特征。 - duration_labels (
torch.LongTensor
, 形状为(batch_size, sequence_length + 1)
, 可选, 默认为None
) — 一批填充后的持续时间。 - pitch_labels (
torch.FloatTensor
, 形状为(batch_size, sequence_length + 1, 1)
, 可选, 默认为None
) — 一批填充后的token平均音调。 - energy_labels (
torch.FloatTensor
, 形状为(batch_size, sequence_length + 1, 1)
, 可选, 默认为None
) — 一批填充后的token平均能量。 - speaker_ids (
torch.LongTensor
, 形状为(batch_size, 1)
, 可选, 默认为None
) — 用于 conditioning 模型语音输出特征的说话人 ID。 - lang_ids (
torch.LongTensor
, 形状为(batch_size, 1)
, 可选, 默认为None
) — 用于 conditioning 模型语音输出特征的语言 ID。 - speaker_embedding (
torch.FloatTensor
, 形状为(batch_size, embedding_dim)
, 可选, 默认为None
) — 包含语音特征的conditioning信号的嵌入。 - return_dict (
bool
, 可选, 默认为None
) — 是否返回FastSpeech2ConformerModelOutput
,而不是普通的元组。 - output_attentions (
bool
, *可选*, 默认值None
) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的attentions
。 - output_hidden_states (
bool
, *可选*, 默认值None
) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的hidden_states
。
返回值
transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerModelOutput
或 tuple(torch.FloatTensor)
一个 transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerModelOutput
或一个 torch.FloatTensor
的元组(如果传递了 return_dict=False
或 config.return_dict=False
),包含根据配置 (FastSpeech2ConformerConfig) 和输入的各种元素。
-
loss (形状为
(1,)
的torch.FloatTensor
, *可选*, 在提供labels
时返回) — 语谱图生成损失。 -
spectrogram (形状为
(batch_size, sequence_length, num_bins)
的torch.FloatTensor
) — 预测的语谱图。 -
encoder_last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, *可选*) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor)
, *可选*, 在传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层,则一个用于嵌入的输出,+ 一个用于每一层的输出)。编码器在每一层输出处的隐藏状态以及初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor)
, *可选*, 在传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每一层一个)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。
-
decoder_hidden_states (
tuple(torch.FloatTensor)
, *可选*, 在传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层,则一个用于嵌入的输出,+ 一个用于每一层的输出)。解码器在每一层输出处的隐藏状态以及初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor)
, *可选*, 在传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每一层一个)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。
-
duration_outputs (形状为
(batch_size, max_text_length + 1)
的torch.LongTensor
, *可选*) — 音段时间预测器的输出。 -
pitch_outputs (形状为
(batch_size, max_text_length + 1, 1)
的torch.FloatTensor
, *可选*) — 音调预测器的输出。 -
energy_outputs (形状为
(batch_size, max_text_length + 1, 1)
的torch.FloatTensor
, *可选*) — 能量预测器的输出。
示例
>>> from transformers import (
... FastSpeech2ConformerTokenizer,
... FastSpeech2ConformerModel,
... FastSpeech2ConformerHifiGan,
... )
>>> tokenizer = FastSpeech2ConformerTokenizer.from_pretrained("espnet/fastspeech2_conformer")
>>> inputs = tokenizer("some text to convert to speech", return_tensors="pt")
>>> input_ids = inputs["input_ids"]
>>> model = FastSpeech2ConformerModel.from_pretrained("espnet/fastspeech2_conformer")
>>> output_dict = model(input_ids, return_dict=True)
>>> spectrogram = output_dict["spectrogram"]
>>> vocoder = FastSpeech2ConformerHifiGan.from_pretrained("espnet/fastspeech2_conformer_hifigan")
>>> waveform = vocoder(spectrogram)
>>> print(waveform.shape)
torch.Size([1, 49664])
FastSpeech2ConformerHifiGan
类 transformers.FastSpeech2ConformerHifiGan
< source >( config: FastSpeech2ConformerHifiGanConfig )
参数
- config (FastSpeech2ConformerConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
HiFi-GAN 声码器。此模型继承自 PreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看超类文档。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以获取有关一般用法和行为的所有信息。
forward
< source >( spectrogram: FloatTensor ) → torch.FloatTensor
将对数梅尔频谱图转换为语音波形。传递一批对数梅尔频谱图会返回一批语音波形。传递单个、非批处理的对数梅尔频谱图将返回单个、非批处理的语音波形。
FastSpeech2ConformerWithHifiGan
class transformers.FastSpeech2ConformerWithHifiGan
< source >( config: FastSpeech2ConformerWithHifiGanConfig )
参数
- config (FastSpeech2ConformerWithHifiGanConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
具有 FastSpeech2ConformerHifiGan 声码器头的 FastSpeech2ConformerModel,可执行文本到语音(波形)转换。此模型继承自 PreTrainedModel。有关库为其所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头部等),请查看超类文档。
此模型也是 PyTorch torch.nn.Module 子类。将其用作常规 PyTorch 模块,并参阅 PyTorch 文档以获取有关一般用法和行为的所有信息。
forward
< source >( input_ids: LongTensor attention_mask: Optional = None spectrogram_labels: Optional = None duration_labels: Optional = None pitch_labels: Optional = None energy_labels: Optional = None speaker_ids: Optional = None lang_ids: Optional = None speaker_embedding: Optional = None return_dict: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None ) → transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerWithHifiGanOutput
或 tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensor
形状为(batch_size, sequence_length)
) — 文本向量输入序列。 - attention_mask (
torch.LongTensor
形状为(batch_size, sequence_length)
, 可选, 默认为None
) — 掩码以避免对填充标记索引执行卷积和注意力。掩码值在[0, 1]
中选择:0 表示被掩码的标记,1 表示未被掩码的标记。 - spectrogram_labels (
torch.FloatTensor
形状为(batch_size, max_spectrogram_length, num_mel_bins)
, 可选, 默认为None
) — 一批填充后的目标特征。 - duration_labels (
torch.LongTensor
形状为(batch_size, sequence_length + 1)
, 可选, 默认为None
) — 一批填充后的持续时间。 - pitch_labels (
torch.FloatTensor
形状为(batch_size, sequence_length + 1, 1)
, 可选, 默认为None
) — 一批填充后的标记平均音调。 - **energy_labels** (形状为 `(batch_size, sequence_length + 1, 1)` 的 `torch.FloatTensor`,*可选*,默认为 `None`)— 批量的填充token平均能量。
- **speaker_ids** (形状为 `(batch_size, 1)` 的 `torch.LongTensor`,*可选*,默认为 `None`)— 用于调节模型语音输出特征的说话人 ID。
- **lang_ids** (形状为 `(batch_size, 1)` 的 `torch.LongTensor`,*可选*,默认为 `None`)— 用于调节模型语音输出特征的语言 ID。
- **speaker_embedding** (形状为 `(batch_size, embedding_dim)` 的 `torch.FloatTensor`,*可选*,默认为 `None`)— 包含语音特征调节信号的嵌入。
- **return_dict** ( `bool`,*可选*,默认为 `None` ) — 是否返回 `FastSpeech2ConformerModelOutput` 而不是普通的元组。
- **output_attentions** ( `bool`,*可选*,默认为 `None` ) — 是否返回所有注意力层的注意力张量。有关详细信息,请参阅返回张量下的 `attentions`。
- **output_hidden_states** ( `bool`,*可选*,默认为 `None` ) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量下的 `hidden_states`。
返回值
`transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerWithHifiGanOutput` 或 `tuple(torch.FloatTensor)`
一个 `transformers.models.fastspeech2_conformer.modeling_fastspeech2_conformer.FastSpeech2ConformerWithHifiGanOutput` 或一个 `torch.FloatTensor` 的元组(如果传递了 `return_dict=False` 或当 `config.return_dict=False` 时),包含根据配置(`<class 'transformers.models.fastspeech2_conformer.configuration_fastspeech2_conformer.FastSpeech2ConformerWithHifiGanConfig'>`)和输入而定的各种元素。
-
**waveform** (形状为 `(batch_size, audio_length)` 的 `torch.FloatTensor`)— 将预测的梅尔频谱图通过声码器后得到的语音输出。
-
loss (形状为
(1,)
的torch.FloatTensor
, *可选*, 在提供labels
时返回) — 语谱图生成损失。 -
spectrogram (形状为
(batch_size, sequence_length, num_bins)
的torch.FloatTensor
) — 预测的语谱图。 -
encoder_last_hidden_state (形状为
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, *可选*) — 模型编码器最后一层输出的隐藏状态序列。 -
encoder_hidden_states (
tuple(torch.FloatTensor)
, *可选*, 在传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层,则一个用于嵌入的输出,+ 一个用于每一层的输出)。编码器在每一层输出处的隐藏状态以及初始嵌入输出。
-
encoder_attentions (
tuple(torch.FloatTensor)
, *可选*, 在传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每一层一个)。编码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。
-
decoder_hidden_states (
tuple(torch.FloatTensor)
, *可选*, 在传递output_hidden_states=True
或config.output_hidden_states=True
时返回) — 形状为(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元组(如果模型有嵌入层,则一个用于嵌入的输出,+ 一个用于每一层的输出)。解码器在每一层输出处的隐藏状态以及初始嵌入输出。
-
decoder_attentions (
tuple(torch.FloatTensor)
, *可选*, 在传递output_attentions=True
或config.output_attentions=True
时返回) — 形状为(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元组(每一层一个)。解码器的注意力权重,在注意力 softmax 之后,用于计算自注意力头中的加权平均值。
-
duration_outputs (形状为
(batch_size, max_text_length + 1)
的torch.LongTensor
, *可选*) — 音段时间预测器的输出。 -
pitch_outputs (形状为
(batch_size, max_text_length + 1, 1)
的torch.FloatTensor
, *可选*) — 音调预测器的输出。 -
energy_outputs (形状为
(batch_size, max_text_length + 1, 1)
的torch.FloatTensor
, *可选*) — 能量预测器的输出。
示例
>>> from transformers import (
... FastSpeech2ConformerTokenizer,
... FastSpeech2ConformerWithHifiGan,
... )
>>> tokenizer = FastSpeech2ConformerTokenizer.from_pretrained("espnet/fastspeech2_conformer")
>>> inputs = tokenizer("some text to convert to speech", return_tensors="pt")
>>> input_ids = inputs["input_ids"]
>>> model = FastSpeech2ConformerWithHifiGan.from_pretrained("espnet/fastspeech2_conformer_with_hifigan")
>>> output_dict = model(input_ids, return_dict=True)
>>> waveform = output_dict["waveform"]
>>> print(waveform.shape)
torch.Size([1, 49664])