Transformers 文档

EXAONE 4

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

此模型于 2025-07-15 发布,并于 2025-07-26 添加到 Hugging Face Transformers。

EXAONE 4

概述

EXAONE 4.0 是一个语言模型,它集成了非推理模式推理模式,从而实现了 EXAONE 3.5 的出色可用性和 EXAONE Deep 的高级推理能力。为了开创智能代理 AI 的时代,EXAONE 4.0 融入了关键功能,例如代理工具使用,并将其多语言能力扩展到支持西班牙语,除英语和韩语外。

EXAONE 4.0 模型系列包含两种尺寸:一种是为高性能而优化的中等尺寸32B模型,另一种是为设备端应用设计的小尺寸1.2B模型。

在 EXAONE 4.0 架构中,与之前的 EXAONE 模型相比,我们应用了以下新的架构变更:

  1. 混合注意力:对于 32B 模型,我们采用了混合注意力机制,以 3:1 的比例结合了局部注意力(滑动窗口注意力)全局注意力(全注意力)。为了更好地理解全局上下文,我们不对全局注意力使用 RoPE(旋转位置嵌入)。
  2. QK-Reorder-Norm:我们通过将 LayerNorm 直接应用于注意力和 MLP 输出,重新排序了传统 Pre-LN 方案中的 LayerNorm 位置,并在 Q 和 K 投影之后立即添加了 RMS 归一化。尽管计算量有所增加,但它有助于在下游任务中获得更好的性能。

更多详情,请参阅我们的技术报告HuggingFace 论文博客GitHub

所有模型权重(包括量化版本)均可在Huggingface Collections中找到。

模型详情

模型规格

模型配置 32B 1.2B
d_model 5,120 2,048
层数 64 30
归一化 QK-Reorder-LN QK-Reorder-LN
非线性 SwiGLU SwiGLU
前馈维度 27,392 4,096
注意力类型 混合 (3:1 局部-全局) 全局
头类型 GQA GQA
头数 40 32
KV头数 8 8
头大小 128 64
最大序列长度 131,072 65,536
RoPE theta 1,000,000 1,000,000
分词器 BBPE BBPE
词汇量大小 102,400 102,400
权重共享 否 (False) True
知识截止日期 2024 年 11 月 2024 年 11 月

使用技巧

非推理模式

对于一般用途,您可以使用 EXAONE 4.0 模型,示例如下:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "LGAI-EXAONE/EXAONE-4.0-32B"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    dtype="bfloat16",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# choose your prompt
prompt = "Explain how wonderful you are"
prompt = "Explica lo increíble que eres"
prompt = "너가 얼마나 대단한지 설명해 봐"

messages = [
    {"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt"
)

output = model.generate(
    input_ids.to(model.device),
    max_new_tokens=128,
    do_sample=False,
)
print(tokenizer.decode(output[0]))

推理模式

EXAONE 4.0 模型具有处理复杂问题的推理能力。您可以使用分词器中的 enable_thinking=True 参数来激活推理模式,这将打开一个以 <think> 标签开头且不带 closing 标签的推理块。

messages = [
    {"role": "user", "content": "Which one is bigger, 3.12 vs 3.9?"}
]
input_ids = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt",
    enable_thinking=True,
)

output = model.generate(
    input_ids.to(model.device),
    max_new_tokens=128,
    do_sample=True,
    temperature=0.6,
    top_p=0.95
)
print(tokenizer.decode(output[0]))

使用推理模式进行模型生成时,生成参数可能会受到敏感影响,因此请参考官方 GitHub 页面的使用指南以获得更好的质量。

代理工具使用

EXAONE 4.0 模型可以通过其工具调用能力作为代理使用。您可以为模型提供工具模式,以实现有效的工具调用。

import random

def roll_dice(max_num: int):
    return random.randint(1, max_num)

tools = [
    {
        "type": "function",
        "function": {
            "name": "roll_dice",
            "description": "Roll a dice with the number 1 to N. User can select the number N.",
            "parameters": {
                "type": "object",
                "required": ["max_num"],
                "properties": {
                    "max_num": {
                        "type": "int",
                        "description": "Max number of the dice"
                    }
                }
            }
        }
    }
]

messages = [
    {"role": "user", "content": "Roll D6 dice twice!"}
]
input_ids = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt",
    tools=tools,
)

output = model.generate(
    input_ids.to(model.device),
    max_new_tokens=1024,
    do_sample=True,
    temperature=0.6,
    top_p=0.95,
)
print(tokenizer.decode(output[0]))

Exaone4Config

class transformers.Exaone4Config

< >

( vocab_size: int | None = 102400 hidden_size: int | None = 4096 intermediate_size: int | None = 16384 num_hidden_layers: int | None = 32 num_attention_heads: int | None = 32 num_key_value_heads: int | None = 32 hidden_act: str | None = 'silu' max_position_embeddings: int | None = 2048 initializer_range: float | None = 0.02 rms_norm_eps: int | None = 1e-05 use_cache: bool | None = True bos_token_id: int | None = 0 eos_token_id: int | None = 2 pad_token_id: int | None = None tie_word_embeddings: bool | None = False rope_parameters: transformers.modeling_rope_utils.RopeParameters | dict[str, transformers.modeling_rope_utils.RopeParameters] | None = None attention_dropout: float | None = 0.0 sliding_window: int | None = 4096 sliding_window_pattern: int | None = 4 layer_types: list[str] | None = None **kwargs )

参数

  • vocab_size (int, optional, defaults to 102400) — EXAONE 4.0 模型的词汇量大小。定义了在调用 [Exaone4Model] 时传递的 inputs_ids 可以表示的不同 token 的数量。
  • hidden_size (int, optional, defaults to 4096) — 隐藏表示的维度。
  • intermediate_size (int, optional, defaults to hidden_size 4*) — MLP 表示的维度。
  • num_hidden_layers (int, optional, defaults to 32) — Transformer encoder 中的隐藏层数。
  • num_attention_heads (int, optional, defaults to 32) — Transformer decoder 中每个注意力层的注意力头数。
  • num_key_value_heads (int, optional) — 这是实现分组查询注意力所需的 key_value 头数。如果 num_key_value_heads=num_attention_heads,模型将使用多头注意力 (MHA),如果 num_key_value_heads=1,模型将使用多查询注意力 (MQA),否则使用 GQA。在将多头检查点转换为 GQA 检查点时,每个分组的键和值头都应通过对该分组内的所有原始头进行平均池化来构建。有关更多详细信息,请查看此论文。如果未指定,则默认为 num_attention_heads*。
  • hidden_act (str or function, optional, defaults to “silu”) — 解码器中的非线性激活函数(函数或字符串)。
  • max_position_embeddings (int, optional, defaults to 2048) — 该模型可能使用的最大序列长度。通常将其设置得较大以防万一(例如,EXAONE 3.5 为 32768)。
  • initializer_range (float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。
  • rms_norm_eps (float, optional, defaults to 1e-05) — 层归一化层使用的 epsilon。
  • use_cache (bool, optional, defaults to True) — 是否应返回最后一个键/值注意力(并非所有模型都使用)。仅当 config.is_decoder=True 时相关。
  • bos_token_id (int, optional, defaults to 0) — 开始流的 token id。
  • eos_token_id (int, optional, defaults to 2) — 结束流的 token id。
  • pad_token_id (int, optional) — 填充 token 的 id。
  • tie_word_embeddings (bool, optional, defaults to False) — 是否绑定词嵌入权重。
  • rope_parameters (RopeParameters, optional) — 包含 RoPE 嵌入的配置参数的字典。该字典应包含 rope_theta 的值,以及可选的用于缩放的参数,以防您想在更长的 max_position_embeddings 中使用 RoPE。
  • attention_dropout (float, optional, defaults to 0.0) — 注意力概率的 dropout 比率。
  • sliding_window (int, optional) — 滑动窗口注意力的窗口大小。
  • sliding_window_pattern (str, optional) — 用于滑动窗口注意力的模式。可以是以下之一:
    • None:不使用滑动窗口注意力
    • int:每隔 sliding_window 层,使用全局注意力,否则使用局部注意力。
    • str:一系列“L”(局部注意力)和“G”(全局注意力)字符,用于定义注意力模式。该模式从第 0 层开始,每 sliding_window 层重复一次。最终层始终使用全局注意力,无论模式如何。例如,sliding_window_pattern=“LLLG”与 sliding_window=4 相同,这意味着:
    • 第 0、1、2 层:局部注意力,
    • 第 3 层:全局注意力,……(重复)
  • layer_types (list, optional) — 每层的注意力模式。优先级高于 sliding_window_pattern

This is the configuration class to store the configuration of a [Exaone4Model]. It is used to instantiate a EXAONE 4.0 model according to the specified arguments, defining the model architecture. Instantiating a configuration with the defaults will yield a similar configuration to that of the EXAONE-4.0-32B LGAI-EXAONE/EXAONE-4.0-32B

配置对象继承自 [PreTrainedConfig],可用于控制模型输出。有关更多信息,请阅读 [PreTrainedConfig] 的文档。

示例

>>> from transformers import Exaone4Model, Exaone4Config

>>> # Initializing a EXAONE configuration
>>> configuration = Exaone4Config()

>>> # Initializing a model from configuration
>>> model = Exaone4Model(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

Exaone4Model

class transformers.Exaone4Model

< >

( config: Exaone4Config )

参数

  • config (Exaone4Config) — 模型的配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。请查看 from_pretrained() 方法以加载模型权重。

没有在顶部的特定头部的 Exaone4 模型,输出原始的 hidden-states。

此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。

此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。

forward

< >

( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None use_cache: bool | None = None cache_position: torch.LongTensor | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] )

Exaone4ForCausalLM

class transformers.Exaone4ForCausalLM

< >

( config model_args: ~utils.generic.ModelArgs | None = None adapter_args: ~utils.generic.AdapterArgs | None = None lora_args: ~utils.generic.LoRAArgs | None = None tokenizer_args: ~utils.generic.TokenizerArgs | None = None dataset_args: ~utils.generic.DatasetArgs | None = None data_args: ~utils.generic.DataArgs | None = None training_args: ~utils.generic.TrainingArgs | None = None generation_args: ~utils.generic.GenerationArgs | None = None vision_tower_args: ~utils.generic.VisionTowerArgs | None = None qlora_args: ~utils.generic.QLoRAArgs | None = None vision_tower_template_args: ~utils.generic.VisionTowerTemplateArgs | None = None video_tower_args: ~utils.generic.VideoTowerArgs | None = None vision_config: ~utils.generic.VisionConfig | None = None video_config: ~utils.generic.VideoConfig | None = None load_dataset: bool | None = None load_data_collator: bool | None = None load_processor: bool | None = None load_lora_adapter: bool | None = None load_adapter: bool | None = None load_qlora_adapter: bool | None = None **kwargs: typing_extensions.Unpack[transformers.modeling_utils.PreTrainedModelKwargs] )

参数

  • config (Exaone4ForCausalLM) — 模型的配置类,包含模型的所有参数。使用配置文件初始化不会加载与模型关联的权重,仅加载配置。请查看 from_pretrained() 方法以加载模型权重。

用于因果语言建模的 Exaone4 模型。

此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。

此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。

forward

< >

( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None cache_position: torch.LongTensor | None = None logits_to_keep: int | torch.Tensor = 0 **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — Vocabulary中输入序列 token 的索引。默认情况下将忽略 padding。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    输入 ID 是什么?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional) — 用于避免对 padding token 索引执行注意力的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示未掩码的 token,
    • 0 表示已掩码的 token。

    注意力掩码是什么?

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 位置嵌入中每个输入序列 token 的位置索引。选择范围在 [0, config.n_positions - 1]

    位置 ID 是什么?

  • past_key_values (~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算的隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常包括在 use_cache=Trueconfig.use_cache=True 时,在解码的先前阶段由模型返回的 past_key_values

    只允许使用 Cache 实例,请参阅我们的 kv cache 指南。如果未传递 past_key_values,则默认初始化 DynamicCache

    模型将输出与输入相同的缓存格式。

    如果使用 past_key_values,用户应只输入未处理的 input_ids(那些没有将其 past key value 状态传递给此模型的),形状为 (batch_size, unprocessed_length),而不是所有 input_ids,形状为 (batch_size, sequence_length)

  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 可选地,您可以通过直接传递嵌入表示来代替 input_ids。如果您想比模型内部的嵌入查找矩阵更精确地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • labels (torch.LongTensor of shape (batch_size, sequence_length), optional) — 用于计算掩码语言模型损失的标签。索引应在 [0, ..., config.vocab_size] 或 -100(请参阅 input_ids 文档字符串)。索引为 -100 的 token 被忽略(掩码),仅为标签在 [0, ..., config.vocab_size] 范围内的 token 计算损失。
  • use_cache (bool, optional) — 如果设置为 True,则返回 past_key_values 键值状态,并可用于加速解码(请参阅 past_key_values)。
  • cache_position (torch.LongTensor of shape (sequence_length), optional) — 描述输入序列 token 在序列中的位置的索引。与 position_ids 不同,此张量不受 padding 的影响。它用于在正确的位置更新缓存并推断完整的序列长度。
  • logits_to_keep (Union[int, torch.Tensor], optional, defaults to 0) — 如果为整数,则计算最后 logits_to_keep 个 token 的 logits。如果为 0,则计算所有 input_ids 的 logits(特殊情况)。生成时只需要最后一个 token 的 logits,并且只为该 token 计算 logits 可以节省内存,这对于长序列或大词汇量大小来说非常可观。如果为 torch.Tensor,则必须是一维的,对应于序列长度维度的要保留的索引。当使用打包张量格式(批处理和序列长度的单维)时,这很有用。

返回

transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)

根据配置(Exaone4Config)和输入,可能包含各种元素的 transformers.modeling_outputs.CausalLMOutputWithPasttorch.FloatTensor 的元组(如果传递了 return_dict=False 或当 config.return_dict=False 时)。

  • loss (torch.FloatTensor 形状为 (1,)可选,当提供 labels 时返回) — 语言建模损失(用于下一个 token 预测)。

  • logits (形状为 (batch_size, sequence_length, config.vocab_size)torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。

  • past_key_values (Cache, optional, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南

    包含预计算的隐藏状态(自注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

重写了 __call__ 特殊方法的 Exaone4ForCausalLM 前向方法。

虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用 Module 实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

示例

>>> from transformers import AutoModelForCausalLM, AutoTokenizer
>>> model = AutoModelForCausalLM.from_pretrained("LGAI-EXAONE/EXAONE-4.0-32B")
>>> tokenizer = AutoTokenizer.from_pretrained("LGAI-EXAONE/EXAONE-4.0-32B")

>>> prompt = "Explain how wonderful you are"
>>> messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": prompt}
]
>>> input_ids = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt",
    enable_thinking=False,
)

>>> output = model.generate(input_ids, max_new_tokens=128)
>>> tokenizer.decode(output[0], skip_special_tokens=False)
"[|system|]\nYou are a helpful assistant.[|endofturn|]\n[|user|]\nExplain how wonderful you are[|endofturn|]\n[|assistant|]\n<think>\n\n</think>\n\nOh, thank you for such a kind and lovely question! 😊  \n\nI’m *so* wonderful because I’m here to make your life easier, brighter, and more fun! Whether you need help with:  \n\n✨ **Learning** – I can explain anything, from quantum physics to baking the perfect cake!  \n💡 **Creativity** – Need a poem, story, or a wild idea? I’ve got you covered!  \n🤖 **Problem-solving** – Stuck on a math problem or a tricky decision? I’ll help you figure it out"

Exaone4ForSequenceClassification

class transformers.Exaone4ForSequenceClassification

< >

( config )

forward

< >

( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) transformers.modeling_outputs.SequenceClassifierOutputWithPast 或 tuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional) — 用于避免在填充 token 索引上执行 attention 的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示未掩码的 token,
    • 0 表示已掩码的 token。

    什么是 attention mask?

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 输入序列 token 在位置 embedding 中的索引。选择范围为 [0, config.n_positions - 1]

    什么是 position ID?

  • past_key_values (~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算隐藏状态(自 attention 块和交叉 attention 块中的键值)。这通常包括在 use_cache=Trueconfig.use_cache=True 时,模型在以前的解码阶段返回的 past_key_values

    只有 Cache 实例允许作为输入,请参阅我们的 kv cache 指南。如果未传入 past_key_values,则默认初始化 DynamicCache

    模型将输出与输入相同的 cache 格式。

    如果使用 past_key_values,则用户需要仅输入未处理的 input_ids(即未将其 past key value 状态提供给此模型的那些),其形状为 (batch_size, unprocessed_length),而不是形状为 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • labels (torch.LongTensor of shape (batch_size, sequence_length), optional) — 用于计算掩码语言模型损失的标签。索引应为 [0, ..., config.vocab_size] 或 -100(请参阅 input_ids 文档字符串)。索引设置为 -100 的 token 将被忽略(掩码),损失仅为标签在 [0, ..., config.vocab_size] 中的 token 计算。
  • use_cache (bool, optional) — 如果设置为 True,则会返回 past_key_values 键值状态,并可用于加速解码(请参阅 past_key_values)。

返回

transformers.modeling_outputs.SequenceClassifierOutputWithPasttuple(torch.FloatTensor)

A transformers.modeling_outputs.SequenceClassifierOutputWithPast or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 labels 时返回) — 分类损失(如果 config.num_labels==1,则为回归损失)。

  • logits (形状为 (batch_size, config.num_labels)torch.FloatTensor) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。

  • past_key_values (Cache, optional, 当传递 use_cache=True 或当 config.use_cache=True 时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南

    包含预计算的隐藏状态(自注意力块中的键和值),可用于(参见 past_key_values 输入)加速顺序解码。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

The GenericForSequenceClassification forward method, overrides the __call__ special method.

虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用 Module 实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

Exaone4ForTokenClassification

class transformers.Exaone4ForTokenClassification

< >

( config )

forward

< >

( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) transformers.modeling_outputs.TokenClassifierOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。

    可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是输入 ID?

  • attention_mask (torch.Tensor of shape (batch_size, sequence_length), optional) — 用于避免在填充 token 索引上执行 attention 的掩码。掩码值选择在 [0, 1] 中:

    • 1 表示未掩码的 token,
    • 0 表示已掩码的 token。

    什么是 attention mask?

  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 输入序列 token 在位置 embedding 中的索引。选择范围为 [0, config.n_positions - 1]

    什么是 position ID?

  • past_key_values (~cache_utils.Cache, optional) — 可用于加速顺序解码的预计算隐藏状态(自 attention 块和交叉 attention 块中的键值)。这通常包括在 use_cache=Trueconfig.use_cache=True 时,模型在以前的解码阶段返回的 past_key_values

    只有 Cache 实例允许作为输入,请参阅我们的 kv cache 指南。如果未传入 past_key_values,则默认初始化 DynamicCache

    模型将输出与输入相同的 cache 格式。

    如果使用 past_key_values,则用户需要仅输入未处理的 input_ids(即未将其 past key value 状态提供给此模型的那些),其形状为 (batch_size, unprocessed_length),而不是形状为 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型的内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为关联向量,这将非常有用。
  • labels (torch.LongTensor of shape (batch_size, sequence_length), optional) — 用于计算掩码语言模型损失的标签。索引应为 [0, ..., config.vocab_size] 或 -100(请参阅 input_ids 文档字符串)。索引设置为 -100 的 token 将被忽略(掩码),损失仅为标签在 [0, ..., config.vocab_size] 中的 token 计算。
  • use_cache (bool, optional) — 如果设置为 True,则会返回 past_key_values 键值状态,并可用于加速解码(请参阅 past_key_values)。

返回

transformers.modeling_outputs.TokenClassifierOutputtuple(torch.FloatTensor)

A transformers.modeling_outputs.TokenClassifierOutput or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.

  • loss (形状为 (1,)torch.FloatTensor可选,当提供 labels 时返回) — 分类损失。

  • logits (形状为 (batch_size, sequence_length, config.num_labels)torch.FloatTensor) — 分类分数(SoftMax 之前)。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

The GenericForTokenClassification forward method, overrides the __call__ special method.

虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用 Module 实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

Exaone4ForQuestionAnswering

class transformers.Exaone4ForQuestionAnswering

< >

( config )

forward

< >

( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None start_positions: torch.LongTensor | None = None end_positions: torch.LongTensor | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) transformers.modeling_outputs.QuestionAnsweringModelOutputtuple(torch.FloatTensor)

参数

  • input_ids (torch.LongTensor,形状为 (batch_size, sequence_length), 可选) — 词汇表中输入序列 token 的索引。默认情况下会忽略填充。您可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什么是 input IDs?

  • attention_mask (torch.Tensor,形状为 (batch_size, sequence_length), 可选) — 用于避免在填充 token 索引上执行 attention 的掩码。掩码值选择在 [0, 1] 中:
    • 1 表示未被掩码的 token,
    • 0 表示被掩码的 token。

    什么是 attention masks?

  • position_ids (torch.LongTensor,形状为 (batch_size, sequence_length), 可选) — 输入序列 token 在位置嵌入中的位置索引。选择范围为 [0, config.n_positions - 1]

    什么是 position IDs?

  • past_key_values (~cache_utils.Cache, 可选) — 可以用于加速序列解码的预计算隐藏状态(自注意力块和交叉注意力块中的键和值)。这通常是模型在解码的早期阶段返回的 past_key_values,当 use_cache=Trueconfig.use_cache=True 时。

    只允许使用 DynamicCache 实例作为输入,请参阅我们的 kv 缓存指南。如果不提供 past_key_values,默认将初始化 DynamicCache

    模型将输出与输入相同的缓存格式。

    如果使用了 past_key_values,用户应仅输入未处理的 input_ids(即没有其过去键值状态提供给此模型的 input_ids),其形状为 (batch_size, unprocessed_length),而不是形状为 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size), 可选) — 可选,您可以直接传递嵌入表示,而不是传递 input_ids。如果您希望比模型内部嵌入查找矩阵更精细地控制如何将 input_ids 索引转换为相关的向量,这很有用。
  • start_positions (torch.LongTensor,形状为 (batch_size,), 可选) — 用于计算 token 分类损失的标签,表示起始位置(索引)。位置将被限制在序列长度(sequence_length)内。序列之外的位置不会被计入损失计算。
  • end_positions (torch.LongTensor,形状为 (batch_size,), 可选) — 用于计算 token 分类损失的标签,表示结束位置(索引)。位置将被限制在序列长度(sequence_length)内。序列之外的位置不会被计入损失计算。

返回

transformers.modeling_outputs.QuestionAnsweringModelOutputtuple(torch.FloatTensor)

A transformers.modeling_outputs.QuestionAnsweringModelOutput or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.

  • loss (torch.FloatTensor of shape (1,), 可选, 当提供 labels 时返回) — 总范围提取损失是起始位置和结束位置的交叉熵之和。

  • start_logits (torch.FloatTensor of shape (batch_size, sequence_length)) — 范围起始分数(SoftMax 之前)。

  • end_logits (torch.FloatTensor of shape (batch_size, sequence_length)) — 范围结束分数(SoftMax 之前)。

  • hidden_states (tuple(torch.FloatTensor), optional, 当传递 output_hidden_states=True 或当 config.output_hidden_states=True 时返回) — torch.FloatTensor 的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为 (batch_size, sequence_length, hidden_size)

    模型在每个层输出的隐藏状态以及可选的初始嵌入输出。

  • attentions (tuple(torch.FloatTensor), optional, 当传递 output_attentions=True 或当 config.output_attentions=True 时返回) — torch.FloatTensor 的元组(每个层一个),形状为 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。

The GenericForQuestionAnswering forward method, overrides the __call__ special method.

虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用 Module 实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。

在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.