Transformers文档

Gemini

Hugging Face's logo
加入Hugging Face社区

并获取增强的文档体验

开始使用

Gemma模型由Google的Gemma团队在基于Gemini技术和研究:Gemma开放模型一文中提出。Gemma模型在6T tokens上训练,并发布了2个版本,2b和7b。

下面是论文的摘要

本工作介绍了Gemma,这是一种新的公开语言模型,在语言理解、推理和安全性的学术基准上展现出强大的性能。我们发布了两种模型尺寸(20亿和70亿参数),并提供了预训练和微调的检查点。在18个基于文本的任务中,Gemma在11项任务中优于同等规模的公开模型,我们还对模型的安全性和责任方面进行了全面评估,并详细介绍了我们的模型开发过程。我们认为,负责任地发布大型语言模型对于提高前沿模型的安全性以及促进下一波LLM创新至关重要。

提示

  • 原始检查点可以使用转换脚本来转换:src/transformers/models/gemma/convert_gemma_weights_to_hf.py

该模型由以下人员贡献:Arthur ZuckerYounes BelkadaSanchit GandhiPedro Cuenca

GemmaConfig

transformers.GemmaConfig

< >

( vocab_size = 256000 hidden_size = 3072 intermediate_size = 24576 num_hidden_layers = 28 num_attention_heads = 16 num_key_value_heads = 16 head_dim = 256 hidden_act = 'gelu_pytorch_tanh' hidden_activation = None max_position_embeddings = 8192 initializer_range = 0.02 rms_norm_eps = 1e-06 use_cache = True pad_token_id = 0 eos_token_id = 1 bos_token_id = 2 tie_word_embeddings = True rope_theta = 10000.0 attention_bias = False attention_dropout = 0.0 **kwargs )

参数

  • vocab_size (int, 可选, 默认值 256000) — Gemma 模型的词汇表大小。定义了在调用 GemmaModelinputs_ids 可以表示的不同标记的数量
  • hidden_sizeint可选,默认为3072) — 隐藏表示的维度。
  • intermediate_sizeint可选,默认为24576) — MLP表示的维度。
  • num_hidden_layersint可选,默认为28) — Transformer解码器中的隐藏层数。
  • num_attention_headsint可选,默认为16) — Transformer解码器中每个注意力层中的注意力头的数目。
  • num_key_value_heads (int, 可选的, 默认值 16) — 这个值表示应该使用多少个 key_value heads 来实现分组的查询注意力。如果 num_key_value_heads=num_attention_heads,则模型将使用多头注意力(MHA),如果 num_key_value_heads=1,则模型将使用多查询注意力(MQA),否则使用 GQA。在将多头检查点转换为 GQA 检查点时,每个分组键和值 head 应通过在该组内对所有原始头进行平均池化来构建。有关更多详细信息,请参阅这篇论文。如果没有指定,将默认为 num_attention_heads
  • head_dim (int, 可选的, 默认值 256) — 注意力头维度。
  • hidden_act (strfunction, 可选的, 默认值 "gelu_pytorch_tanh") — 废弃的激活函数。它可以被 hidden_activation 覆盖。
  • hidden_activation (strfunction可选) — 解码器中的非线性激活函数(函数或字符串)。如果未指定,则默认为 "gelu_pytorch_tanh""gelu_pytorch_tanh" 使用 "gelu" 激活函数的近似。
  • max_position_embeddings (int可选,默认为 8192) — 此模型可能使用的最大序列长度。
  • initializer_rangefloat可选,默认为 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • rms_norm_eps (浮点型, 可选, 默认为 1e-06) — rms 归一化图层中使用的 epsilon。
  • use_cache (布尔型, 可选, 默认为 True) — 模型是否应返回最后的关键值注意力(不是所有模型都使用)。只有在 config.is_decoder=True 时才相关。
  • pad_token_id (整型, 可选, 默认为 0) — 填充 token id。
  • eos_token_id (整型, 可选, 默认为 1) — 流结束 token id。
  • bos_token_id (int,可选,默认为2) — 流的开始标记的id。
  • tie_word_embeddings (bool,可选,默认为True) — 是否绑定权重嵌入。
  • rope_theta (float,可选,默认为10000.0) — RoPE嵌入的基础周期。
  • attention_bias (bool,默认为False,可选,默认为False) — 在自注意力的查询、键、值和输出投影层中是否使用偏差。
  • attention_dropoutfloat可选,默认为0.0) — 注意力概率的dropout比率。

>>> from transformers import GemmaModel, GemmaConfig
>>> # Initializing a Gemma gemma-7b style configuration
>>> configuration = GemmaConfig()
>>> # Initializing a model from the gemma-7b style configuration
>>> model = GemmaModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config

GammaTokenizer

transformers.GammaTokenizer

< >

( vocab_file unk_token = '<unk>' bos_token = '<bos>' eos_token = '<eos>' pad_token = '<pad>' sp_model_kwargs: Optional = None add_bos_token = True add_eos_token = False clean_up_tokenization_spaces = False use_default_system_prompt = False spaces_between_special_tokens = False **kwargs )

参数

  • vocab_file (str) — 词汇文件路径。
  • unk_token (str or tokenizers.AddedToken, 可选, 默认为 "<unk>") — 未知的最小单位。不在词汇表中的最小单位无法转换为ID,并将设置为该最小单位。
  • bos_token (strtokenizers.AddedToken, 可选,默认为 "<bos>") — 预训练期间使用的序列起始标记。可以用作序列分类标记。
  • eos_token (strtokenizers.AddedToken, 可选,默认为 "<eos>") — 序列结束标记。
  • pad_token (strtokenizers.AddedToken, 可选,默认为 "<pad>") — 用于批量处理时使标记数组具有相同大小的特殊标记。然后将由注意力机制或损失计算忽略。
  • sp_model_kwargs (Dict[str, Any], Optional, 可选) — 将传递给 SentencePieceProcessor.__init__() 方法。除了其他用途外,可以使用 SentencePiece 的 Python 封装 来设置:
  • add_bos_token (bool, 可选, 默认为 True) — 是否在序列开头添加 bos_token
  • add_eos_token (bool, 可选, 默认为 False) — 是否在序列末尾添加 eos_token
  • clean_up_tokenization_spaces (bool, 可选, 默认为 False) — 是否在解码后清理空格,清理包括移除潜在的额外空格等碎片。
  • use_default_system_prompt (bool, 可选, 默认为 False) — 是否使用Gemma的默认系统提示。
  • spaces_between_special_tokens (bool, 可选, 默认为 False) — 是否在特殊标记之间添加空格。

构建一个Gemma分词器。基于字节级别的字节对编码。默认填充标记未设置,因为原始模型中没有填充标记。

convert_tokens_to_string

< >

( tokens )

将一个标记序列(字符串)转换为单一字符串。

create_token_type_ids_from_sequences

< >

( token_ids_0: 列表 token_ids_1: 可选 = None ) 列表[int]

参数

  • token_ids_0 (列表[int]) — ID 列表。
  • token_ids_1 (List[int], 可选) — 可选的序列对 ID 的第二个列表。

返回值

列表[int]

根据给定的序列序列生成的标记类型 ID 列表。

从传递给函数的两个序列创建一个掩码,用于序列对分类任务。ALBERT

序列对掩码具有以下格式

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1
| first sequence    | second sequence |

如果 token_ids_1 为空,则只返回掩码的第一部分(0s)。

get_special_tokens_mask

< >

( token_ids_0: List token_ids_1: Optional = None already_has_special_tokens: bool = False ) List[int]

参数

  • token_ids_0 (List[int]) — ID 列表。
  • token_ids_1 (整数列表, 可选) — 可选的第二组序列对的ID列表。
  • already_has_special_tokens (布尔值, 可选, 默认为 False) — 是否已将特殊标记格式化为模型标记列表。

返回值

列表[int]

区间为 [0, 1] 的整数列表:1 代表特殊标记,0 代表序列标记。

从未添加特殊标记的标记列表中检索序列 ID。当使用标记器 prepare_for_model 方法添加特殊标记时调用此方法。

get_vocab

< >

( )

作为字典返回词汇表

save_vocabulary

< >

( save_directory filename_prefix: Optional = None ) Tuple(str)

参数

  • save_directory (str) — 将词汇表保存到的目录。

返回值

Tuple(str)

保存文件的路径。

将词汇表和特殊标记文件保存到目录中。

GemmaTokenizerFast

transformers.GemmaTokenizerFast

< >

( vocab_file = None tokenizer_file = None clean_up_tokenization_spaces = False unk_token = '<unk>' bos_token = '<bos>' eos_token = '<eos>' pad_token = '<pad>' add_bos_token = True add_eos_token = False **kwargs )

参数

  • vocab_file (str, 可选) — 包含创建标记化器所需词汇的 SentencePiece 文件(通常具有 .model 扩展名)。
  • tokenizer_file (str, 可选) —— 包含加载分词器所需所有内容的 tokenizers 文件(通常具有 .json 扩展名)。
  • clean_up_tokenization_spaces (bool, 可选,默认为 False)—— 解码后是否清理空格,清理包括移除可能的冗余空格等。
  • unk_token (strtokenizers.AddedToken, 可选,默认为 "<unk>") —— 未知标记。不在词汇表中的标记无法转换为 ID,将被设置为该标记。
  • bos_token (strtokenizers.AddedToken默认"<bos>") — 预训练过程中使用的序列开始标记。可以用作序列分类标记。
  • eos_token (strtokenizers.AddedToken默认"<eos>") — 序列结束标记。
  • pad_token (str默认"<pad>") — 填充标记。
  • add_bos_token (bool默认True) — 是否在序列开头添加 bos_token
  • add_eos_token (bool, optional, defaults to False) — 是否在序列末尾添加一个 eos_token

构建 Gemma 速记器。基于字节级的字节对编码。

这 notably 使用了字节回退和没有前缀空格。对空白格进行规范化,将其替换为 "▁"

>>> from transformers import GemmaTokenizerFast

>>> tokenizer = GemmaTokenizerFast.from_pretrained("hf-internal-testing/dummy-gemma")
>>> tokenizer.encode("Hello this is a test")
[2, 4521, 736, 603, 476, 2121]

如果您想更改 bos_tokeneos_token,确保在初始化模型时指定它们,或者调用 tokenizer.update_post_processor() 确保后处理正确执行(否则编码序列的第一个标记和最后一个标记的值将不正确)。更多详细信息,请查看[后处理器] (https://huggingface.co/docs/tokenizers/api/post-processors) 文档。

此标记器继承自 PreTrainedTokenizerFast,其中包含大多数主要方法。用户应参考此超类以了解更多有关这些方法的信息。

update_post_processor

< >

( )

更新底层后处理程序,带有当前的 bos_tokeneos_token

GemmaModel

transformers.GemmaModel

< >

( config: GemmaConfig )

参数

  • config (GemmaConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,仅供配置。请查看from_pretrained()方法,用于加载模型权重。config — GemmaConfig

一个裸的Gemma模型,输出原始隐藏状态而无需在顶部添加任何特定头。这个模型继承自PreTrainedModel。请查看超类文档,了解库为所有模型实现的方法(如下载或保存、调整输入嵌入、剪枝头部等)。

此模型也是PyTorch的torch.nn.Module子类。将其作为常规PyTorch模块使用,并参考PyTorch文档以了解有关通用使用和行为的所有问题。

config.num_hidden_layers层组成的Transformer解码器。每一层都是一个GemmaDecoderLayer

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None position_ids: Optional = None past_key_values: Union = None inputs_embeds: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None cache_position: Optional = None )

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 输入序列的词汇索引。如果提供,则默认忽略填充。

    可以使用 AutoTokenizer 来获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor可选) — 用于避免在填充标记索引上执行注意力的掩码。掩码值选择在 [0, 1] 之间:
    • 1 表示 未掩码 的标记,
    • 0 表示 掩码 的标记。

    注意掩码是什么?

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    如果使用 past_key_values,则可以(可选)只输入最后 input_ids。(见 past_key_values)。

    如果您想更改填充行为,应阅读 modeling_opt._prepare_decoder_attention_mask 并根据需要修改。有关默认策略的更多信息,请参阅 该论文 中的图 1。

    • 1 表示头 未掩码
    • 0 表示头 掩码
  • position_ids (形状为 (batch_size, sequence_length)torch.LongTensor可选) — 每个输入序列标记在位置嵌入中的位置索引。范围在 [0, config.n_positions - 1] 之间。
  • past_key_valuesCachetuple(tuple(torch.FloatTensor))可选)—— 可以用于加速序列解码的预计算隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常包括在解码的先前阶段返回的 past_key_values,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • 一个 Cache 实例;
    • 长度为 config.n_layerstuple(torch.FloatTensor) 的元组,每个元组包含两个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量)。这也被称为旧的缓存格式。

    模型将输出与输入相同的缓存格式。如果没有传递 past_key_values,则将返回旧的缓存格式。

    如果使用 past_key_values,用户可以可选地只输入最后一个 input_ids(那些没有将其过去的键值状态给此模型的)的形状为 (batch_size, 1),而不是所有形状为 (batch_size, sequence_length)input_ids

  • inputs_embedstorch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)可选)—— 可选地,您可以直接传递嵌入表示,而不是传递 input_ids。如果您想比模型内部嵌入查找矩阵有更多控制权来将 input_ids 索引转换为关联向量,这将很有用。
  • use_cache (bool, 可选) — 如果设置为 True,则会返回 past_key_values 的键值状态,并且可以使用这些状态来加速解码(请参阅 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。更详细的信息请参阅返回张量中的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。更详细的信息请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是一个普通的元组。
  • cache_position (torch.LongTensor 形状 (sequence_length), 可选) — 用于表示输入序列的标记在序列中的位置的索引。与 position_ids 不同,这个张量不受填充的影响。它用于在正确的位置更新缓存并推断完整的序列长度。

GemmaModel 的前向方法,覆盖了 __call__ 特殊方法。

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

GemmaForCausalLM

class transformers.GemmaForCausalLM

< >

( 配置 )

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None position_ids: Optional = None past_key_values: Union = None inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None cache_position: Optional = None ) transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 输入序列令牌在词汇表中的索引。如果提供,默认会忽略填充。
  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), 可选) — 防止在填充token的索引上执行注意力操作的掩码。所选的掩码值在[0, 1]范围内:
    • 1 对应未被掩码的token;
    • 0 对应被掩码的token。

    有关注意力掩码的更多信息,请参阅什么是注意力掩码?

    可以使用AutoTokenizer获取索引。有关详细信息,请参阅PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    如果使用past_key_values,则可选地只需输入最后的input_ids(参见past_key_values)。

    如果您想更改填充行为,请阅读modeling_opt._prepare_decoder_attention_mask并按需修改。有关默认策略的更多信息,请参考论文中的图1。

    • 1 表示头部未被掩码;
    • 0 表示头部被掩码。
  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), 可选) — 每个输入序列token的位置嵌入中的索引。选择范围在[0, config.n_positions - 1]内。

    有关位置ID的更多信息,请参阅什么是位置ID?

  • past_key_values (Cachetuple(tuple(torch.FloatTensor))可选) — 可用于加速序列解码的预计算隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常包括模型在解码的前一个阶段返回的 past_key_values,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • 一个 Cache 实例;
    • 长度为 config.n_layerstuple(tuple(torch.FloatTensor)) 的元组,每个元组包含2个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量)。这也被称为旧版缓存格式。

    模型将以输入相同的缓存格式输出。如果没有传递 past_key_values,将返回旧版缓存格式。

    如果使用 past_key_values,用户可以可选地只输入最后的 input_ids(未给此模型提供其过去键值状态的那些)的形状为 (batch_size, 1),而不是所有 input_ids 的形状为 (batch_size, sequence_length)

  • inputs_embeds (torch.FloatTensor 的形状 (batch_size, sequence_length, hidden_size)可选) — 可以选择直接传递嵌入表示,而不是传递 input_ids。这在您希望对将 input_ids 索引转换为相关向量有更多控制时很有用,而且比模型的内部嵌入查找矩阵更有用。
  • use_cache (bool, 可选) — 如果设置为 True,则会返回 past_key_values 的键值状态,并且可以用于加速解码(请参阅 past_key_values)。
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。请参阅返回张量下的 attentions 获取更多详细信息。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。请参阅返回张量下的 hidden_states 获取更多详细信息。
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是纯元组。
  • cache_position (torch.LongTensor of shape (sequence_length), 可选) — 表示输入序列标记在序列中的位置的索引。与 position_ids 不同,此张量不受填充影响。它用于在正确的位置更新缓存,并推断完整的序列长度。

    参数 — labels (torch.LongTensor of shape (batch_size, sequence_length), 可选): 用于计算掩码语言建模损失的标签。索引应为 [0, ..., config.vocab_size] 或 -100(参见 input_ids 文档字符串)。索引设置为 -100 的标记将被忽略(掩码),仅计算具有 [0, ..., config.vocab_size] 中标签的标记的损失。

返回值

transformers.modeling_outputs.CausalLMOutputWithPasttuple(torch.FloatTensor)

A transformers.modeling_outputs.CausalLMOutputWithPast 或一个由 torch.FloatTensor 组成的元组(如果传递了 return_dict=False 或当 config.return_dict=False),包含根据配置(GemmaConfig)和输入的不同元素。

  • loss (torch.FloatTensor of shape (1,), 可选,当提供 labels 时返回) — 语言建模损失(用于下一个标记预测)。

  • logits (torch.FloatTensor of shape (batch_size, sequence_length, config.vocab_size)) — 语言建模头部的预测分数(SoftMax之前的每个词汇标记的分数)。

  • past_key_values (tuple(tuple(torch.FloatTensor)), 可选,当传递了 use_cache=True 或当 config.use_cache=True) — 一个长度为 config.n_layerstuple(torch.FloatTensor) 的元组,每个元组包含2个形为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量

    包含预计算的隐藏状态(自我注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • hidden_states (tuple(torch.FloatTensor), 可选,当传递 output_hidden_states=True 或当 config.output_hidden_states=True) — 包含每个层的输出的 tuple(torch.FloatTensor)(如果模型有嵌入层,则为嵌入层的输出加上每个层的输出)的元组,形状为 (batch_size, sequence_length, hidden_size)

    模型在每个输出层的隐藏状态加上可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), 可选,当传递 output_attentions=True 或当 config.output_attentions=True) — 每一层的 torch.FloatTensor 的元组(一个用于注意力 softened 之后,用于计算自我注意力头部的加权平均)的形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力权重在应用 softmax 之后,用于计算自我注意力头部中的加权平均。

GemmaForCausalLM 前向方法,覆盖了特殊方法 __call__

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

示例

>>> from transformers import AutoTokenizer, GemmaForCausalLM

>>> model = GemmaForCausalLM.from_pretrained("google/gemma-7b")
>>> tokenizer = AutoTokenizer.from_pretrained("google/gemma-7b")

>>> prompt = "What is your favorite condiment?"
>>> inputs = tokenizer(prompt, return_tensors="pt")

>>> # Generate
>>> generate_ids = model.generate(inputs.input_ids, max_length=30)
>>> tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
"What is your favorite condiment?"

GemmaForSequenceClassification

transformers.GemmaForSequenceClassification

< >

( config )

参数

  • config (GemmaConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化时不会加载与模型关联的权重,只加载配置。检查 from_pretrained() 方法以加载模型权重。

在顶部具有序列分类头的 Gemma 模型 transformer。

GemmaForSequenceClassification 使用最后一个标记来进行分类,就像其他因果模型(例如 GPT-2)一样。

由于它对最后一个标记进行分类,因此需要知道最后一个标记的位置。如果在配置中定义了 pad_token_id,它将在每行中找到最后一个不是填充标记的标记。如果没有定义 pad_token_id,它将简单地取批量中每行的最后一个值。因为当传递 inputs_embeds 而不是 input_ids 时,它无法猜测填充标记,所以它做同样的操作(取批量中每行的最后一个值)。

此模型继承自 PreTrainedModel。请检查超类文档,了解库为所有模型实现的通用方法(如下载或保存、调整输入嵌入层、剪枝头部等)。

此模型也是PyTorch的torch.nn.Module子类。将其作为常规PyTorch模块使用,并参考PyTorch文档以了解有关通用使用和行为的所有问题。

forward

< >

( input_ids: LongTensor = None attention_mask: Optional = None position_ids: Optional = None past_key_values: Union = None inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None )

参数

  • input_ids (形状为 (batch_size, sequence_length)torch.LongTensor) — 词汇表中的输入序列令牌的索引。如提供,默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (形状为 (batch_size, sequence_length)torch.Tensor可选) — 避免在填充令牌索引上执行注意力的掩码。掩码值选择在 [0, 1]

    • 1 表示未掩码的令牌,
    • 0 表示掩码的令牌。

    什么是注意力掩码?

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    如果使用 past_key_values,则可以使用可选方式仅输入最后的 input_ids(参见 past_key_values)。

    如果您想更改填充行为,应阅读 modeling_opt._prepare_decoder_attention_mask 并按您的需求修改。有关默认策略的更多详细信息,请参阅论文中的图 1。

    • 1 表示头部未掩码,
    • 0 表示头部已掩码。
  • position_ids (torch.LongTensor 形状为 (batch_size, sequence_length)可选) - 每个输入序列token在位置嵌入中的位置索引。在 [0, config.n_positions - 1] 范围内选择。

    什么是位置ID?

  • past_key_values (Cachetuple(tuple(torch.FloatTensor))可选) - 用于加速顺序解码的预计算隐藏状态(自注意力模块和交叉注意力模块中的键和值)。这通常由在解码的前一阶段返回的 past_key_values 组成,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • 一个 Cache 实例;
    • 长度为 config.n_layerstuple(tuple(torch.FloatTensor)),其中每个元组包含形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的 2 个张量。这也被称为遗产缓存格式。

    模型将以与输入相同的缓存格式输出。如果没有 past_key_values 传递,将返回遗产缓存格式。

    如果使用了 past_key_values,则用户可以选择性地输入只有最后 input_ids(那些没有给此模型提供过去键值状态的)形状为 (batch_size, 1),而不是所有 input_ids 形状为 (batch_size, sequence_length)

  • inputs_embeds (torch.FloatTensor 形状为 (batch_size, sequence_length, hidden_size)可选) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。这在您想要比模型内部嵌入查找矩阵能够更精确地控制将 input_ids 索引转换为相关向量的方式时很有用。
  • use_cache (bool可选) — 如果设置为 True,将返回 past_key_values 的键值状态,并可用于加速解码(参见 past_key_values)。
  • output_attentions (bool可选) — 是否返回所有注意力层的注意力张量。有关更多详情,请参见返回的张量下的 attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关详细信息,请参阅返回张量中的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • cache_position (torch.LongTensor 形状为 (序列长度), 可选) — 表示输入序列标记在序列中的位置的索引。与 position_ids 相反,该张量不受填充的影响。它用于在正确位置更新缓存并推断完整的序列长度。
  • labels (形状为(batch_size,)torch.LongTensor,可选) — 计算序列分类/回归损失的标签。索引应在[0, ..., config.num_labels - 1]之间。如果config.num_labels == 1,则计算回归损失(均方损失),如果config.num_labels > 1,则计算分类损失(交叉熵)。

GemmaForSequenceClassification的前向方法覆盖了特殊的__call__方法。

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

GemmaForTokenClassification

transformers.GemmaForTokenClassification

< >

( config )

参数

  • config (GemmaConfig) — 模型配置类,包含模型的所有参数。使用配置文件初始化时,不会加载与模型关联的权重,只会加载配置。检查from_pretrained()方法以加载模型权重。

The Gemma Model transformer with a token classification head on top (a linear layer on top of the hidden-states output) e.g. for Named-Entity-Recognition (NER) tasks.

此模型继承自 PreTrainedModel。请检查超类文档,了解库为所有模型实现的通用方法(如下载或保存、调整输入嵌入层、剪枝头部等)。

此模型也是PyTorch的torch.nn.Module子类。将其作为常规PyTorch模块使用,并参考PyTorch文档以了解有关通用使用和行为的所有问题。

forward

< >

( input_ids: Optional = None attention_mask: Optional = None position_ids: Optional = None past_key_values: Optional = None inputs_embeds: Optional = None labels: Optional = None use_cache: Optional = None output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None )

参数

  • input_ids (torch.LongTensor 形状:(batch_size, sequence_length)) — 官方词库中输入序列标记的索引。默认情况下,如果提供则忽略填充。

  • attention_mask (torch.Tensor 形状:(batch_size, sequence_length)可选) — 避免在填充标记索引上执行注意力的掩码。选定的掩码值在 [0, 1]
    • 1 表示未 掩码 的标记,
    • 0 表示 掩码 的标记。

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 每个输入序列标记在位置嵌入中的位置索引。选择范围在 [0, config.n_positions - 1] 之间。

    什么是位置ID?

  • past_key_values (Cachetuple(tuple(torch.FloatTensor)), optional) — 用于加速顺序解码的预计算隐藏状态(在自注意力块和交叉注意力块中的键和值)。这通常由模型在解码的前一个阶段返回的 past_key_values 组成,当 use_cache=Trueconfig.use_cache=True 时。

    允许两种格式:

    • 一个 Cache 实例;
    • 长度为 config.n_layerstuple(tuple(torch.FloatTensor)),每个元组包含2个形状为 (batch_size, num_heads, sequence_length, embed_size_per_head) 的张量)。这还被称为传统的缓存格式。

    模型将输出与输入相同的缓存格式。如果没有传入 past_key_values,则返回传统的缓存格式。

    如果使用 past_key_values,用户可以可选地只输入最后一个 input_ids(那些没有将过去的关键值状态给定此模型的)形状为 (batch_size, 1) 而不是所有 input_ids 形状为 (batch_size, sequence_length)

  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)可选)—— 可选地,您可以选择直接传递嵌入表示,而不是传递input_ids。如果您想比模型内部的嵌入查找矩阵有更多的控制权,将input_ids的索引转换为关联向量,这种方法很有用。
  • use_cache (bool可选)—— 如果设置为True,则返回past_key_values键值状态,并可用于加速解码(请参阅past_key_values)。
  • output_attentions (bool可选)—— 是否返回所有注意力层的注意力张量。有关更多详情,请参阅返回张量下的attentions
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。详细信息请参阅返回张量下的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是普通元组。
  • cache_position (torch.LongTensor 形状为 (序列长度), 可选) — 表示输入序列标记在序列中位置的下标。与 position_ids 不同,这个张量不受填充的影响。它用于在正确位置更新缓存并推断完整序列长度。
  • labels (torch.LongTensor of shape (batch_size,), optional) — 计算序列分类/回归损失的标签。索引应在 [0, ..., config.num_labels - 1] 范围内。如果 config.num_labels == 1,则计算回归损失(均方损失),如果 config.num_labels > 1,则计算分类损失(交叉熵)。

GemmaForTokenClassification 前向方法,覆盖了 __call__ 特殊方法。

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

FlaxGemmaModel

class transformers.FlaxGemmaModel

< >

( config: GemmaConfig input_shape: Tuple = (1, 1) seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (GemmaConfig) — 包含模型所有参数的模型配置类。使用配置文件初始化不会加载与模型关联的权重,只加载配置。请参阅 from_pretrained() 方法以加载模型权重。
  • dtype (jax.numpy.dtype, optional, 默认 jax.numpy.float32) — 计算的数据类型。可以是 jax.numpy.float32, jax.numpy.float16, 或 jax.numpy.bfloat16 之一。

    这可以用于在 GPU 或 TPUs 上启用混合精度训练或半精度推理。如果指定,所有计算都将使用给定的 dtype 执行。

    注意,这仅指定了计算的数据类型,并不会影响模型参数的数据类型。

    如果您想更改模型参数的数据类型,请参阅 to_fp16()to_bf16()

裸 Gemma 模型变压器输出原始隐藏状态的模型,没有顶部任何特定头。

此模型继承自 FlaxPreTrainedModel。请参阅超类文档,了解库为所有模型(例如下载或保存、调整输入嵌入、剪枝头部等)实现的通用方法。

此模型也是Flax Linen flax.nn.Module的子类。将其用作常规Flax模块,并查阅Flax文档了解所有有关通用用法和行为的内容。

最后,此模型支持内在的JAX功能,例如:

__call__

< >

( input_ids attention_mask = None position_ids = None params : dict = None past_key_values : dict = None dropout_rng : PRNGKey = None train : bool = False output_attentions : Optional = None output_hidden_states : Optional = None return_dict : Optional = None ) transformers.modeling_flax_outputs.FlaxBaseModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (numpy.ndarray of shape (batch_size, input_ids_length)) —— 在词汇表中输入序列标记的索引。默认情况下,如果你提供填充,将会忽略填充。

    您可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (numpy.ndarray of shape (batch_size, sequence_length), optional) —— 用于避免对填充标记索引执行注意力操作的掩码。掩码值选择在 [0, 1] 之间:
    • 1 表示未屏蔽的标记,
    • 0 表示被屏蔽的标记。

    什么是注意力掩码?

    您可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    如果使用 past_key_values,则可选地只需输入最后的 decoder_input_ids(请参阅 past_key_values)。

    如果您想更改填充行为,您应该阅读 modeling_opt._prepare_decoder_attention_mask 并进行修改以满足您的需求。有关默认策略的更多信息,请参阅论文中的图 1

    • 1 表示头部未屏蔽,
    • 0 表示头部屏蔽。
  • position_ids (numpy.ndarray of shape (batch_size, sequence_length), 可选) — 每个输入序列标记在位置嵌入中的位置索引。选择范围在 [0, config.n_positions - 1]
  • past_key_values (Dict[str, np.ndarray], 可选) — 在解码时,可以复用上次计算得到的隐藏态的字典,包括注意力的键和值。预计算的键和值隐藏态的形状为 [batch_size, max_length]
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。更多详情,请查看返回的 attentions 张量。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。有关更多详细信息,请参阅返回张量的 hidden_states
  • return_dict (bool, 可选) — 是否返回 ModelOutput 而不是原始元组。

返回值

transformers.modeling_flax_outputs.FlaxBaseModelOutputtuple(torch.FloatTensor)

transformers.modeling_flax_outputs.FlaxBaseModelOutput 或一个元组,包含多个元素,这取决于配置 (GemmaConfig) 和输入,当 return_dict=False 时或当 config.return_dict=False

  • last_hidden_state (jnp.ndarray of shape (batch_size, sequence_length, hidden_size)) — 模型最后层输出的隐藏状态序列。

  • hidden_states (tuple(jnp.ndarray), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — 一个包含一个嵌入输出和一个每一层的输出的 jnp.ndarray 元组,形状为 (batch_size, sequence_length, hidden_size)

    每个层的模型输出隐藏状态加上初始嵌入输出。

  • attentions (tuple(jnp.ndarray), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — 一个形状为 (batch_size, num_heads, sequence_length, sequence_length)jnp.ndarray 元组,对应于每个层的注意力。

    注意力权重在应用 softmax 之后,用于计算自我注意力头部中的加权平均。

FlaxGemmaPreTrainedModel 的 forward 方法覆盖了 __call__ 特殊方法。

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

此示例使用随机模型作为真实模型都非常大。要获得正确的结果,您应使用 openlm-research/open_llama_3b_v2 而不是 google/gemma-2b。如果加载检查点时出现内存不足错误,您可以尝试在 from_pretrained 调用中添加 device_map="auto"

示例

>>> from transformers import AutoTokenizer, FlaxGemmaModel

>>> tokenizer = AutoTokenizer.from_pretrained("google/gemma-2b")
>>> model = FlaxGemmaModel.from_pretrained("google/gemma-2b")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="jax")
>>> outputs = model(**inputs)

>>> last_hidden_states = outputs.last_hidden_state

FlaxGemmaForCausalLM

类别 transformers.FlaxGemmaForCausalLM

< >

( config: GemmaConfig input_shape: Tuple = (1, 1) seed: int = 0 dtype: dtype = <class 'jax.numpy.float32'> _do_init: bool = True **kwargs )

参数

  • config (GemmaConfig) — 模型参数的所有配置的模型配置类。用配置文件初始化不会加载与模型相关的权重,只有配置。查看 from_pretrained() 方法加载模型权重。
  • dtype (jax.numpy.dtype, 可选, 默认为 jax.numpy.float32) — 计算的数据类型。可以是以下之一:jax.numpy.float32jax.numpy.float16,或 jax.numpy.bfloat16

The Gemma Model transformer with a language modeling head (linear layer) on top.

此模型继承自 FlaxPreTrainedModel。请参阅超类文档,了解库为所有模型(例如下载或保存、调整输入嵌入、剪枝头部等)实现的通用方法。

此模型也是Flax Linen flax.nn.Module的子类。将其用作常规Flax模块,并查阅Flax文档了解所有有关通用用法和行为的内容。

最后,此模型支持内在的JAX功能,例如:

__call__

< >

( input_ids attention_mask = None position_ids = None params: dict = None past_key_values: dict = None dropout_rng: PRNGKey = None train: bool = False output_attentions: Optional = None output_hidden_states: Optional = None return_dict: Optional = None ) transformers.modeling_flax_outputs.FlaxMaskedLMOutputtuple(torch.FloatTensor)

参数

  • input_ids (numpy.ndarray of shape (batch_size, input_ids_length)) — 输入序列标记在词汇表中的索引。如果您提供填充,默认将忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    输入ID是什么?

  • attention_mask (numpy.ndarray 形状为 (batch_size, sequence_length)可选) - 用于避免在填充标记索引上执行注意力的掩码。在 [0, 1] 范围内选定的掩码值:

    • 1 表示 未掩码 的标记;
    • 0 表示 掩码 的标记。

    什么是注意力掩码?

    可以通过使用 AutoTokenizer 获取索引。有关详情,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    如果使用 past_key_values,可选地只输入最后的 decoder_input_ids(请参阅 past_key_values)。

    如果您想更改填充行为,应阅读 modeling_opt._prepare_decoder_attention_mask 并按照您的需求进行修改。有关默认策略的更多信息,请参阅论文中的图1。

    • 1 表示头 未掩码
    • 0 表示头 掩码
  • position_ids (numpy.ndarray 形状为 (batch_size, sequence_length)可选) - 输入序列标记在每个位置嵌入中的索引。在范围 [0, config.n_positions - 1] 内选取。

    什么是位置ID?

  • past_key_values (Dict[str, np.ndarray], 可选,由init_cache返回或传递之前的past_key_values时生成) — 可以用于快速自回归解码的预计算隐藏状态的字典(注意力块中的键和值)。预计算的关键和值隐藏状态的大小为[批大小, 最大长度]
  • output_attentions (bool, 可选) — 是否返回所有注意力层的注意力张量。关于返回张量中的attentions的更多详细信息,请参阅。
  • output_hidden_states (bool, 可选) — 是否返回所有层的隐藏状态。关于返回张量中的hidden_states的更多详细信息,请参阅。
  • return_dict (bool, 可选) - 是否返回ModelOutput对象,而不是普通的元组。

返回值

transformers.modeling_flax_outputs.FlaxMaskedLMOutputtuple(torch.FloatTensor)

A transformers.modeling_flax_outputs.FlaxMaskedLMOutput或一个包含各种元素的元组(取决于配置和输入)(GemmaConfigtorch.FloatTensor(如果传递了return_dict=False或当config.return_dict=False时)。

  • logits (jnp.ndarray维度为(batch_size, sequence_length, config.vocab_size)) - 语言模型头部的预测分数(在SoftMax之前的每个词汇表的得分)。

  • hidden_states (tuple(jnp.ndarray), 可选, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — 一个包含一个嵌入输出和一个每一层的输出的 jnp.ndarray 元组,形状为 (batch_size, sequence_length, hidden_size)

    每个层的模型输出隐藏状态加上初始嵌入输出。

  • attentions (tuple(jnp.ndarray), 可选, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — 一个形状为 (batch_size, num_heads, sequence_length, sequence_length)jnp.ndarray 元组,对应于每个层的注意力。

    注意力权重在应用 softmax 之后,用于计算自我注意力头部中的加权平均。

FlaxGemmaPreTrainedModel 的 forward 方法覆盖了 __call__ 特殊方法。

虽然需要在函数内定义前向通路的配方,但应该在使用函数之后调用 Module 实例,因为前者负责运行预和后处理步骤,而后者默默地忽略它们。

此示例使用随机模型作为真实模型都非常大。要获得正确的结果,您应使用 openlm-research/open_llama_3b_v2 而不是 google/gemma-2b。如果加载检查点时出现内存不足错误,您可以尝试在 from_pretrained 调用中添加 device_map="auto"

示例

>>> from transformers import AutoTokenizer, FlaxGemmaForCausalLM

>>> tokenizer = AutoTokenizer.from_pretrained("google/gemma-2b")
>>> model = FlaxGemmaForCausalLM.from_pretrained("google/gemma-2b")

>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="np")
>>> outputs = model(**inputs)

>>> # retrieve logts for next token
>>> next_token_logits = outputs.logits[:, -1]
< > GitHub更新