Transformers 文档
Mistral
并获得增强的文档体验
开始使用
该模型于 2023-10-10 发布,并于 2023-09-27 添加到 Hugging Face Transformers。
Mistral
Mistral 是一个具有 70 亿参数的语言模型,提供预训练和指令调优版本,专注于平衡大型模型的扩展成本与性能和高效推理。该模型使用带有 8K 上下文长度和固定缓存大小的滑动窗口注意力(SWA)来更有效地处理较长的序列。分组查询注意力(GQA)加快了推理速度并减少了内存需求。Mistral 还具有字节回退 BPE 分词器,通过确保字符永远不会被映射到词汇表外(out-of-vocabulary)标记来提高标记处理和效率。
您可以在 Mistral AI_ 组织下找到所有原始 Mistral 检查点。
单击右侧边栏中的 Mistral 模型,查看更多将 Mistral 应用于不同语言任务的示例。
以下示例演示了如何使用 Pipeline 或 AutoModel,以及通过命令行进行聊天。
>>> import torch
>>> from transformers import pipeline
>>> messages = [
... {"role": "user", "content": "What is your favourite condiment?"},
... {"role": "assistant", "content": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"},
... {"role": "user", "content": "Do you have mayonnaise recipes?"}
... ]
>>> chatbot = pipeline("text-generation", model="mistralai/Mistral-7B-Instruct-v0.3", dtype=torch.bfloat16, device=0)
>>> chatbot(messages)量化通过以较低精度表示权重来减少大型模型的内存负担。有关更多可用量化后端,请参阅量化概述。
以下示例使用 bitsandbytes 仅将权重量化为 4 位。
>>> import torch
>>> from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
>>> # specify how to quantize the model
>>> quantization_config = BitsAndBytesConfig(
... load_in_4bit=True,
... bnb_4bit_quant_type="nf4",
... bnb_4bit_compute_dtype="torch.float16",
... )
>>> model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-Instruct-v0.3", quantization_config=True, dtype=torch.bfloat16, device_map="auto")
>>> tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.3")
>>> prompt = "My favourite condiment is"
>>> messages = [
... {"role": "user", "content": "What is your favourite condiment?"},
... {"role": "assistant", "content": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"},
... {"role": "user", "content": "Do you have mayonnaise recipes?"}
... ]
>>> model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)
>>> generated_ids = model.generate(model_inputs, max_new_tokens=100, do_sample=True)
>>> tokenizer.batch_decode(generated_ids)[0]
"The expected output"使用 AttentionMaskVisualizer 可以更好地了解模型可以关注哪些 token,不能关注哪些 token。
>>> from transformers.utils.attention_visualizer import AttentionMaskVisualizer
>>> visualizer = AttentionMaskVisualizer("mistralai/Mistral-7B-Instruct-v0.3")
>>> visualizer("Do you have mayonnaise recipes?")
MistralConfig
class transformers.MistralConfig
< source >( vocab_size: int | None = 32000 hidden_size: int | None = 4096 intermediate_size: int | None = 14336 num_hidden_layers: int | None = 32 num_attention_heads: int | None = 32 num_key_value_heads: int | None = 8 head_dim: int | None = None hidden_act: str | None = 'silu' max_position_embeddings: int | None = 131072 initializer_range: float | None = 0.02 rms_norm_eps: int | None = 1e-06 use_cache: bool | None = True pad_token_id: int | None = None bos_token_id: int | None = 1 eos_token_id: int | None = 2 tie_word_embeddings: bool | None = False rope_parameters: transformers.modeling_rope_utils.RopeParameters | dict[str, transformers.modeling_rope_utils.RopeParameters] | None = None sliding_window: int | None = 4096 attention_dropout: float | None = 0.0 **kwargs )
参数
- vocab_size (
int, 可选, 默认为 32000) — Mistral 模型的词汇表大小。定义了调用 MistralModel 时传入的inputs_ids可以表示的不同标记数量。 - hidden_size (
int, 可选, 默认为 4096) — 隐藏表示的维度。 - intermediate_size (
int, 可选, 默认为 14336) — MLP 表示的维度。 - num_hidden_layers (
int, 可选, 默认为 32) — Transformer 编码器中的隐藏层数量。 - num_attention_heads (
int, 可选, 默认为 32) — Transformer 编码器中每个注意力层的注意力头数量。 - num_key_value_heads (
int, 可选, 默认为 8) — 用于实现分组查询注意力(Grouped Query Attention)的键值头数量。如果num_key_value_heads=num_attention_heads,模型将使用多头注意力(MHA);如果num_key_value_heads=1,模型将使用多查询注意力(MQA),否则使用 GQA。将多头检查点转换为 GQA 检查点时,每个组的键和值头应通过对该组中所有原始头进行均值池化来构建。有关更多详细信息,请查看 这篇论文。如果未指定,将默认为8。 - head_dim (
int, 可选, 默认为hidden_size // num_attention_heads) — 注意力头维度。 - hidden_act (
str或function, 可选, 默认为"silu") — 解码器中的非线性激活函数(函数或字符串)。 - max_position_embeddings (
int, 可选, 默认为4096*32) — 该模型可能使用的最大序列长度。Mistral 的滑动窗口注意力允许序列长度达到 4096*32 个标记。 - initializer_range (
float, 可选, 默认为 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。 - rms_norm_eps (
float, 可选, 默认为 1e-06) — rms 归一化层使用的 epsilon。 - use_cache (
bool, 可选, 默认为True) — 模型是否应返回最后一个 key/values attention(并非所有模型都使用)。仅当config.is_decoder=True时相关。 - pad_token_id (
int, 可选) — 填充标记的 ID。 - bos_token_id (
int, 可选, 默认为 1) — “序列开始”标记的 ID。 - eos_token_id (
int, 可选, 默认为 2) — “序列结束”标记的 ID。 - tie_word_embeddings (
bool, 可选, 默认为False) — 模型的输入和输出词嵌入是否应该绑定。 - rope_parameters (
RopeParameters, 可选) — 包含 RoPE 嵌入配置参数的字典。该字典应包含rope_theta的值,以及在需要使用 RoPE 处理更长的max_position_embeddings时用于缩放的可选参数。 - sliding_window (
int, 可选, 默认为 4096) — 滑动窗口注意力的窗口大小。如果未指定,将默认为4096。 - attention_dropout (
float, 可选, 默认为 0.0) — 注意力概率的 dropout 率。
这是一个配置类,用于存储 MistralModel 的配置。它用于根据指定的参数实例化 Mistral 模型,定义模型架构。使用默认值实例化配置将生成与 Mistral-7B-v0.1 或 Mistral-7B-Instruct-v0.1 类似的配置。
mistralai/Mistral-7B-v0.1 mistralai/Mistral-7B-Instruct-v0.1
配置对象继承自 PreTrainedConfig,可用于控制模型输出。有关更多信息,请阅读 PreTrainedConfig 的文档。
>>> from transformers import MistralModel, MistralConfig
>>> # Initializing a Mistral 7B style configuration
>>> configuration = MistralConfig()
>>> # Initializing a model from the Mistral 7B style configuration
>>> model = MistralModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.configMistralCommonBackend
class transformers.MistralCommonBackend
< source >( tokenizer_path: str | os.PathLike | pathlib.Path mode: ValidationMode = <ValidationMode.test: 'test'> model_max_length: int = 1000000000000000019884624838656 padding_side: str = 'left' truncation_side: str = 'right' model_input_names: list[str] | None = None clean_up_tokenization_spaces: bool = False **kwargs )
包装 mistral-common 分词器的类。
否则,分词器将回退到 Transformers 的分词器实现。
有关 mistral-common 的更多信息,请参阅 mistral-common。
此类是 mistral_common.tokens.tokenizers.mistral.MistralTokenizer 的包装器。它提供了一个 Hugging Face 兼容的接口来使用官方的 mistral-common 分词器进行分词,并继承自 PreTrainedTokenizerBase 类。
以下是与 PythonBackend 类相比的关键行为差异:
- 不支持序列对。为保持兼容性,保留了签名,但忽略了与序列对相关的所有参数。对的返回值将返回
None。 - 不支持
is_split_into_words参数。 - 无法向分词器添加新 token。特殊 token 的处理方式与 Transformers 不同。在
mistral-common中,特殊 token 永远不会被直接编码。这意味着:tokenizer.encode("<s>")将不会返回<s>token 的 ID。相反,它将返回字符串"<s>"的分词结果对应的 ID 列表。更多信息请参见 mistral-common 文档。
如果您对改进此类有任何建议,请根据问题是与分词器相关还是与 Hugging Face 接口相关,在 mistral-common GitHub 存储库或 Transformers GitHub 存储库中提交 issue。
add_special_tokens
< source >( special_tokens_dict: dict replace_extra_special_tokens: bool = True )
MistralCommonBackend 因设计原因未实现 add_special_tokens。
如果您希望实现此功能,请在 Transformers 或 mistral-common 存储库中提交 issue 以请求。
MistralCommonBackend 因设计原因未实现 add_special_tokens。
如果您希望实现此功能,请在 Transformers 或 mistral-common 存储库中提交 issue 以请求。
apply_chat_template
< source >( conversation: list[dict[str, str]] | list[list[dict[str, str]]] tools: list[dict | collections.abc.Callable] | None = None add_generation_prompt: bool = False continue_final_message: bool = False tokenize: bool = True padding: bool | str | transformers.utils.generic.PaddingStrategy = False truncation: bool = False max_length: int | None = None return_tensors: str | transformers.utils.generic.TensorType | None = None return_dict: bool = True **kwargs ) → Union[str, list[int], list[str], list[list[int]], BatchEncoding]
参数
- conversation (Union[List[Dict[str, str]], List[List[Dict[str, str]]]]) — 包含“role”和“content”键的字典列表,表示到目前为止的聊天记录。
- tools (
List[Union[Dict, Callable]], 可选) — 可供模型访问的工具(可调用函数)列表。如果模板不支持函数调用,则此参数无效。每个工具都应作为 JSON Schema 传入,提供工具的名称、描述和参数类型。有关更多信息,请参阅我们的 聊天模板指南。 - add_generation_prompt (
bool, 可选) — 对于MistralCommonBackend,此参数无效。但是,它不能与continue_final_message同时使用以保持 API 一致性。如果任何对话以助手消息结尾,它将引发错误。在这种情况下,请改用continue_final_message。 - continue_final_message (bool, optional) — 如果设置了此参数,聊天将以开放式格式化,即聊天中的最后一条消息不包含任何 EOS 令牌。模型将继续此消息而不是开始一条新消息。这允许您为模型“预填充”部分响应。不能与
add_generation_prompt同时使用。 - tokenize (
bool, defaults toTrue) — 是否对输出进行分词。如果为False,则输出将为字符串。 - padding (
bool,stror PaddingStrategy, optional, defaults toFalse) — 选择一种策略来填充返回的序列(根据模型的填充方向和填充索引),包括:True或'longest':填充到批次中最长的序列(如果只提供一个序列,则不填充)。'max_length':填充到由参数max_length指定的最大长度,如果未提供该参数,则填充到模型可接受的最大输入长度。False或'do_not_pad'(默认):不填充(即,可以输出包含不同长度序列的批次)。
- truncation (
bool, defaults toFalse) — 是否在达到最大长度时截断序列。如果 tokenize 为False,则无效。 - max_length (
int, optional) — 用于填充或截断的最大长度(以 token 为单位)。如果 tokenize 为False,则无效。如果未指定,将使用分词器的max_length属性作为默认值。 - return_tensors (
stror TensorType, optional) — 如果设置,将返回特定框架的张量。如果 tokenize 为False,则无效。可接受的值为:'pt':返回 PyTorchtorch.Tensor对象。
- return_dict (
bool, defaults toFalse) — 是否返回包含命名输出的字典。如果 tokenize 为False,则无效。如果至少一个对话包含图像,其像素值将以pixel_values键返回。 - kwargs (附加关键字参数, optional) —
MistralCommonBackend.apply_chat_template不支持。如果使用,将引发错误。
返回
Union[str, list[int], list[str], list[list[int]], BatchEncoding]
已分词的聊天内容,包括控制 token。此输出已准备好直接传递给模型,或通过 generate() 等方法传递。
将包含“role”和“content”键的字典列表转换为 token ID 列表。
batch_decode
< source >( sequences: typing.Union[list[int], list[list[int]], numpy.ndarray, ForwardRef('torch.Tensor')] skip_special_tokens: bool = False clean_up_tokenization_spaces: bool | None = None **kwargs ) → list[str]
参数
- sequences (
Union[list[int], list[list[int]], np.ndarray, torch.Tensor]) — tokenized 输入 ID 列表。可以通过__call__方法获取。 - skip_special_tokens (
bool, optional, defaults toFalse) — 解码时是否删除特殊 token。 - clean_up_tokenization_spaces (
bool, optional) — 是否清理 tokenization 空间。如果为None,将默认为self.clean_up_tokenization_spaces。 - kwargs (附加关键字参数, optional) —
MistralCommonBackend.batch_decode不支持。如果使用,将引发错误。
返回
list[str]
解码后的句子列表。
通过调用 decode 将标记 ID 列表的列表转换为字符串列表。
此方法仅用于向后兼容。decode 方法现在支持批处理输入,因此您可以直接使用 decode 而不是 batch_decode。
build_inputs_with_special_tokens
< source >( token_ids_0: list token_ids_1: None = None ) → list[int]
通过添加特殊 token 从序列构建模型输入。
此方法根据分词器的 mode 动态构建输入
"test":seq0 [EOS]"finetuning":[BOS] seq0
convert_added_tokens
< source >( obj: typing.Union[tokenizers.AddedToken, typing.Any] save: bool = False add_type_field: bool = True )
MistralCommonBackend 因设计原因未实现 convert_added_tokens。
如果您希望实现此功能,请在 Transformers 或 mistral-common 存储库中提交 issue 以请求。
create_token_type_ids_from_sequences
< source >( token_ids_0: list token_ids_1: None = None ) → list[int]
使用特殊标记添加的 token id 创建一个零掩码。
为匹配 Transformers 的实现而保留。
decode
< source >( token_ids: typing.Union[int, list[int], list[list[int]], numpy.ndarray, ForwardRef('torch.Tensor')] skip_special_tokens: bool = False clean_up_tokenization_spaces: bool | None = None **kwargs ) → Union[str, list[str]]
参数
- token_ids (
Union[int, list[int], list[list[int]], np.ndarray, torch.Tensor]) — 单个序列或批次(序列列表)的 tokenized 输入 ID。可以通过__call__方法获取。 - skip_special_tokens (
bool, optional, defaults toFalse) — 解码时是否删除特殊 token。 - clean_up_tokenization_spaces (
bool, optional) — 是否清理 tokenization 空间。如果为None,将默认为self.clean_up_tokenization_spaces。 - kwargs (附加关键字参数, optional) —
MistralCommonBackend.decode不支持。如果使用,将引发错误。
返回
Union[str, list[str]]
单个序列的解码字符串,或序列批次的解码字符串列表。
使用分词器和词汇表将 ID 序列转换为字符串,可以选择移除特殊标记并清理分词空间。
编码
< source >( text: str | list[int] text_pair: None = None add_special_tokens: bool = True padding: bool | str | transformers.utils.generic.PaddingStrategy = False truncation: bool | str | transformers.tokenization_utils_base.TruncationStrategy | None = None max_length: int | None = None stride: int = 0 pad_to_multiple_of: int | None = None padding_side: str | None = None return_tensors: str | transformers.utils.generic.TensorType | None = None verbose: bool = True return_offsets_mapping: typing.Literal[False] = False split_special_tokens: typing.Literal[False] = False **kwargs ) → list[int], torch.Tensor
参数
- text (
strorlist[int]) — 要编码的第一个序列。可以是字符串或整数列表(tokenized 字符串 ID)。 - text_pair (
None, optional) —MistralCommonBackend.encode不支持。保留以匹配PreTrainedTokenizerBase.encode签名。 - add_special_tokens (
bool, optional, defaults toTrue) — 编码序列时是否添加特殊 token。这将使用底层的PretrainedTokenizerBase.build_inputs_with_special_tokens函数,该函数定义了哪些 token 会自动添加到输入 ID 中。如果您想自动添加bos或eostoken,这非常有用。当分词器以finetuning模式加载时,它会添加bos和eos。否则,在 “test” 模式下,它只添加bos。 - padding (
bool,stror PaddingStrategy, optional, defaults toFalse) — 激活并控制填充。接受以下值:True或'longest':填充到批次中最长的序列(如果只提供一个序列,则不填充)。'max_length':填充到由参数max_length指定的最大长度,如果未提供该参数,则填充到模型可接受的最大输入长度。False或'do_not_pad'(默认):不填充(即,可以输出包含不同长度序列的批次)。
- truncation (
bool,stror TruncationStrategy, optional, defaults toFalse) — 激活并控制截断。接受以下值:True或'longest_first':截断到由参数max_length指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。False或'do_not_truncate'(默认):不截断(即,可以输出序列长度大于模型最大允许输入大小的批次)。
- max_length (
int, optional) — 控制截断/填充参数使用的最大长度(以 token 为单位)。如果未设置或设置为
None,并且截断/填充参数需要最大长度,则将使用预定义的模型最大长度。如果模型没有特定的最大输入长度(如 XLNet),则截断/填充到最大长度将被禁用。 - stride (
int, optional, defaults to 0) — 如果设置为一个数字且同时设置了max_length,则当return_overflowing_tokens=True时,返回的溢出 token 将包含截断序列末尾的一些 token,以便在截断序列和溢出序列之间提供重叠。此参数的值定义了重叠 token 的数量。 - pad_to_multiple_of (
int, optional) — 如果设置,将序列填充到给定值的倍数。要求激活padding。这对于在计算能力>= 7.5(Volta)的 NVIDIA 硬件上启用 Tensor Core 特别有用。 - padding_side (
str, optional) — 模型应在哪个方向应用填充。应在 ['right', 'left'] 中选择。默认值取自分词器类的同名属性。 - return_tensors (
stror TensorType, optional) — 如果设置,将返回张量而不是 Python 整数列表。可接受的值为:'pt':返回 PyTorchtorch.Tensor对象。
- **kwargs —
MistralCommonBackend.encode不支持。如果使用,将引发错误。
返回
list[int], torch.Tensor
文本的 tokenized ID。
使用分词器和词汇表将字符串转换为 ID 序列(整数)。
from_pretrained
< source >( pretrained_model_name_or_path: str | os.PathLike *init_inputs mode: str | mistral_common.protocol.instruct.validator.ValidationMode = <ValidationMode.test: 'test'> cache_dir: str | os.PathLike | None = None force_download: bool = False local_files_only: bool = False token: str | bool | None = None revision: str = 'main' model_max_length: int = 1000000000000000019884624838656 padding_side: str = 'left' truncation_side: str = 'right' model_input_names: list[str] | None = None clean_up_tokenization_spaces: bool = False **kwargs )
参数
- pretrained_model_name_or_path (
stroros.PathLike) — 可以是以下之一:- 一个字符串,即托管在 huggingface.co 上模型仓库中的预定义分词器的模型 ID。
- 一个目录的路径,包含分词器配置,例如使用
MistralCommonBackend.tokenization_mistral_common.save_pretrained方法保存的目录,例如./my_model_directory/。
- mode (
Union[str, ValidationMode], optional, defaults toValidationMode.test) —MistralTokenizer分词器的验证模式。可能的值为:"finetuning"或ValidationMode.finetuning:微调模式。"test"或ValidationMode.test:测试模式。它会改变分词器验证输入和准备模型请求的方式。
- cache_dir (
stroros.PathLike, optional) — 下载的预定义分词器词汇表文件应缓存的目录路径,如果不使用标准缓存。 - force_download (
bool, optional, defaults toFalse) — 是否强制(重新)下载词汇表文件并覆盖已缓存的版本(如果存在)。 - token (
stror bool, optional) — 用于远程文件的 HTTP bearer 授权 token。如果为True,将使用运行hf auth login时生成的 token(存储在~/.huggingface中)。 - local_files_only (
bool, optional, defaults toFalse) — 是否只依赖本地文件,不尝试下载任何文件。 - revision (
str, optional, defaults to"main") — 要使用的特定模型版本。它可以是分支名称、标签名称或提交 ID,因为我们使用基于 git 的系统在 huggingface.co 上存储模型和其他工件,因此revision可以是 git 允许的任何标识符。 - max_length (
int, optional) — 控制截断/填充参数使用的最大长度(以 token 为单位)。如果未设置或设置为
None,并且截断/填充参数需要最大长度,则将使用预定义的模型最大长度。如果模型没有特定的最大输入长度(如 XLNet),则截断/填充到最大长度将被禁用。 - padding_side (
str, optional, defaults to"left") — 模型应在哪个方向应用填充。应在 ['right', 'left'] 中选择。默认值取自分词器类的同名属性。 - truncation_side (
str, optional, defaults to"right") — 模型应在哪个方向应用截断。应在 ['right', 'left'] 中选择。 - model_input_names (
List[str], optional) — 模型前向传播接受的输入列表(例如"token_type_ids"或"attention_mask")。默认值取自分词器类的同名属性。 - clean_up_tokenization_spaces (
bool, optional, defaults toFalse) — 模型是否应该清理在 tokenization 过程中拆分输入文本时添加的空格。 - kwargs (附加关键字参数, optional) —
MistralCommonBackend.from_pretrained不支持。如果使用,将引发错误。
从预定义的 tokenizer 实例化一个 MistralCommonBackend。
MistralCommonBackend 因设计原因未实现 get_chat_template,因为 mistral-common 不使用 chat templates。
get_special_tokens_mask
< source >( token_ids_0: list token_ids_1: None = None already_has_special_tokens: bool = False ) → A list of integers in the range [0, 1]
从未添加特殊令牌的令牌列表中检索序列 ID。使用分词器 prepare_for_model 或 encode_plus 方法添加特殊令牌时会调用此方法。
返回作为 token 到 index 字典的词汇表。
这是一个有损转换。由于 partial UTF-8 字节序列被转换为 �,可能会有多个 token ID 解码为相同的字符串。
num_special_tokens_to_add
< source >( pair: typing.Literal[False] = False ) → int
返回使用特殊标记编码序列时添加的标记数量。
此方法对一个虚拟输入进行编码,并检查添加的标记数量,因此效率不高。请勿将其放入您的训练循环中。
prepare_for_model
< source >( ids: list pair_ids: None = None add_special_tokens: bool = True padding: bool | str | transformers.utils.generic.PaddingStrategy = False truncation: bool | str | transformers.tokenization_utils_base.TruncationStrategy | None = None max_length: int | None = None stride: int = 0 pad_to_multiple_of: int | None = None padding_side: str | None = None return_tensors: str | transformers.utils.generic.TensorType | None = None return_token_type_ids: bool | None = None return_attention_mask: bool | None = None return_overflowing_tokens: bool = False return_special_tokens_mask: bool = False return_length: bool = False verbose: bool = True prepend_batch_axis: bool = False return_offsets_mapping: typing.Literal[False] = False split_special_tokens: typing.Literal[False] = False **kwargs ) → BatchEncoding
参数
- ids (
list[int]) — 第一个序列的分词输入 ID。 - pair_ids (
None, optional) —MistralCommonBackend不支持。保留以匹配PreTrainedTokenizerBase接口。 - add_special_tokens (
bool, optional, defaults toTrue) — 对序列进行编码时是否添加特殊标记。这将使用底层的PretrainedTokenizerBase.build_inputs_with_special_tokens函数,该函数定义了哪些标记会自动添加到输入 ID中。如果您想自动添加bos或eos标记,这将非常有用。当 Tokenizer 以finetuning模式加载时,它会同时添加bos和eos。否则,对于“test”模式,它只添加bos。 - padding (
bool,stror PaddingStrategy, optional, defaults toFalse) — 激活并控制填充。接受以下值:True或'longest':填充到批次中最长的序列(如果只提供一个序列,则不填充)。'max_length':填充到由参数max_length指定的最大长度,如果未提供该参数,则填充到模型可接受的最大输入长度。False或'do_not_pad'(默认):不填充(即,可以输出长度不同的序列批次)。
- truncation (
bool,stror TruncationStrategy, optional, defaults toFalse) — 激活并控制截断。接受以下值:True或'longest_first':截断到由参数max_length指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。False或'do_not_truncate'(默认):不截断(即,可以输出序列长度大于模型最大允许输入大小的批次)。
- max_length (
int, optional) — 控制截断/填充参数使用的最大长度。如果未设置或设置为
None,并且截断/填充参数需要最大长度,则将使用预定义的模型最大长度。如果模型没有特定的最大输入长度(如 XLNet),则截断/填充到最大长度将被禁用。 - stride (
int, optional, defaults to 0) — 如果设置为一个数字且同时设置了max_length,则当return_overflowing_tokens=True时返回的溢出标记将包含来自返回的截断序列末尾的一些标记,以提供截断序列和溢出序列之间的一些重叠。此参数的值定义了重叠标记的数量。 - pad_to_multiple_of (
int, optional) — 如果设置,将序列填充到给定值的倍数。需要激活padding。这对于启用计算能力>= 7.5(Volta)的 NVIDIA 硬件上的 Tensor Core 特别有用。 - padding_side (
str, optional) — 模型应在哪个方向应用填充。应在 ['right', 'left'] 之间选择。默认值取自同名类属性。 - return_tensors (
stror TensorType, optional) — 如果设置,将返回张量而不是 Python 整数列表。可接受的值为:'pt':返回 PyTorchtorch.Tensor对象。
- return_token_type_ids (
bool, optional) — 是否返回标记类型 ID。对于MistralCommonBackend,它返回一个序列长度的零列表,因为只支持一个序列。 - return_attention_mask (
bool, optional) — 是否返回注意力掩码。如果保留为默认值,将根据特定分词器的默认设置(由return_outputs属性定义)返回注意力掩码。 - return_overflowing_tokens (
bool, optional, defaults toFalse) — 是否返回溢出标记序列。如果提供了一对输入 ID 序列(或一对批次),并且truncation_strategy = longest_first或True,则会引发错误,而不是返回溢出标记。 - return_special_tokens_mask (
bool, optional, defaults toFalse) — 是否返回特殊标记掩码信息。 - return_length (
bool, optional, defaults toFalse) — 是否返回编码输入的长度。 - verbose (
bool, optional, defaults toTrue) — 是否打印更多信息和警告。 - return_offsets_mapping (
Literal[False], optional) — False, 保留以匹配 Transformers 的签名。 - split_special_tokens (
Literal[False], optional) — False, 保留以匹配 Transformers 的签名。 - **kwargs — 传递给
self.tokenize()方法
一个 BatchEncoding 对象,包含以下字段:
-
input_ids — 要输入到模型中的标记 ID 列表。
-
attention_mask — 指定模型应关注哪些标记的索引列表(当
return_attention_mask=True或如果 *“attention_mask”* 在self.model_input_names中时)。 -
overflowing_tokens — 溢出标记序列列表(当指定
max_length且return_overflowing_tokens=True时)。 -
num_truncated_tokens — 截断标记的数量(当指定
max_length且return_overflowing_tokens=True时)。 -
special_tokens_mask — 0 和 1 的列表,其中 1 表示添加的特殊标记,0 表示常规序列标记(当
add_special_tokens=True且return_special_tokens_mask=True时)。 -
length — 输入的长度(当
return_length=True时)
准备输入 id 序列,以便模型可以使用。它添加特殊标记,在考虑特殊标记的情况下截断溢出序列,并为溢出标记管理移动窗口(带有用户定义的步幅)。
save_chat_templates
< source >( save_directory: str | os.PathLike tokenizer_config: dict filename_prefix: str | None save_jinja_files: bool )
MistralCommonBackend 不实现 save_chat_templates 是出于设计考虑,因为 mistral-common 不使用 chat templates。
save_pretrained
< source >( save_directory: str | os.PathLike | pathlib.Path push_to_hub: bool = False token: str | bool | None = None commit_message: str | None = None repo_id: str | None = None private: bool | None = None **kwargs ) → A tuple of str
参数
- save_directory (
stroros.PathLike) — 存储分词器的目录路径。 - push_to_hub (
bool, optional, defaults toFalse) — 是否在保存后将模型推送到 Hugging Face 模型中心。您可以使用repo_id指定要推送到的存储库(默认将为您的命名空间中的save_directory名称)。 - token (
stror bool, optional, defaults toNone) — 用于推送到模型中心的令牌。如果为True,将使用HF_TOKEN环境变量中的令牌。 - commit_message (
str, optional) — 推送到中心时使用的提交消息。 - repo_id (
str, optional) — 推送到中心的存储库名称。 - private (
bool, optional) — 模型存储库是否为私有。 - kwargs (
Dict[str, Any], optional) —MistralCommonBackend.save_pretrained不支持。如果使用,将引发错误。
返回
str 的元组
已保存的文件。
保存完整的 tokenizer 状态。
此方法可确保完整的 tokenizer 稍后可以使用 ~MistralCommonBackend.tokenization_mistral_common.from_pretrained 类方法重新加载。
MistralCommonBackend 不实现 save_vocabulary,这是出于设计考虑。
这是因为 mistral-common 由一个 tokenizer 文件配置。如果您想保存词汇表,请考虑使用 save_pretrained 方法。
tokenize
< source >( text: str return_offsets_mapping: typing.Literal[False] = False split_special_tokens: typing.Literal[False] = False **kwargs ) → list[str]
使用分词器将字符串转换为标记序列。
根据词汇表拆分为单词或子词。
truncate_sequences
< source >( ids: list pair_ids: None = None num_tokens_to_remove: int = 0 truncation_strategy: str | transformers.tokenization_utils_base.TruncationStrategy = 'longest_first' stride: int = 0 **kwargs ) → Tuple[list[int], None, list[int]]
参数
- ids (
list[int]) — 分词输入 ID。可以通过链接tokenize和convert_tokens_to_ids方法从字符串获取。 - pair_ids (
None, optional) —MistralCommonBackend不支持。保留以匹配PreTrainedTokenizerBase.truncate_sequences的签名。 - num_tokens_to_remove (
int, optional, defaults to 0) — 使用截断策略要删除的标记数量。 - truncation_strategy (
stror TruncationStrategy, optional, defaults to'longest_first') — 截断遵循的策略。可以是:'longest_first':截断到由参数max_length指定的最大长度,如果未提供该参数,则截断到模型可接受的最大输入长度。'do_not_truncate'(默认):不截断(即,可以输出序列长度大于模型最大允许输入大小的批次)。
- stride (
int, optional, defaults to 0) — 如果设置为正数,则返回的溢出标记将包含来自主序列的一些标记。此参数的值定义了额外标记的数量。
返回
list[int], None, list[int] 的元组
截断后的 ids 和溢出标记列表。None 返回以匹配 Transformers 的签名。
根据策略原地截断序列对。
MistralModel
class transformers.MistralModel
< source >( config: MistralConfig )
参数
- config (MistralConfig) — 模型配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
裸的 Mistral 模型,输出原始隐藏状态,不带任何特定的顶部head。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None use_cache: bool | None = None cache_position: torch.LongTensor | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) → transformers.modeling_outputs.BaseModelOutputWithPast or tuple(torch.FloatTensor)
参数
- input_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 词汇表中输入序列标记的索引。默认情况下,将忽略填充(padding)。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (形状为
(batch_size, sequence_length)的torch.Tensor, 可选) — 用于避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]中:- 1 表示**未被掩码**的标记,
- 0 表示**被掩码**的标记。
- position_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 输入序列中每个标记在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, 可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括在解码前一阶段由模型返回的past_key_values,此时use_cache=True或config.use_cache=True。只允许 Cache 实例作为输入,请参阅我们的 kv cache guide。如果未传递
past_key_values,则默认初始化 DynamicCache。模型将输出与作为输入馈入的缓存格式相同的缓存格式。
如果使用了
past_key_values,则用户应仅输入形状为(batch_size, unprocessed_length)的未处理input_ids(即没有向此模型提供过去键值状态的标记),而不是所有形状为(batch_size, sequence_length)的input_ids。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)的torch.FloatTensor, 可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递input_ids。如果你希望对如何将input_ids索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这很有用。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。 - cache_position (形状为
(sequence_length)的torch.LongTensor, 可选) — 描述输入序列标记在序列中位置的索引。与position_ids不同,此张量不受填充影响。它用于在正确位置更新缓存并推断完整的序列长度。
返回
transformers.modeling_outputs.BaseModelOutputWithPast or tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.BaseModelOutputWithPast 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或 config.return_dict=False),包含根据配置 (MistralConfig) 和输入的不同元素。
-
last_hidden_state (
torch.FloatTensor, 形状为(batch_size, sequence_length, hidden_size)) — 模型最后一层输出的隐藏状态序列。如果使用了
past_key_values,则只输出形状为(batch_size, 1, hidden_size)的序列的最后一个隐藏状态。 -
past_key_values (
Cache, optional, 当传递use_cache=True或当config.use_cache=True时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南。Contains pre-computed hidden-states (key and values in the self-attention blocks and optionally if
config.is_encoder_decoder=Truein the cross-attention blocks) that can be used (seepast_key_valuesinput) to speed up sequential decoding. -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
MistralModel 前向传播方法,覆盖了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
MistralForCausalLM
class transformers.MistralForCausalLM
< source >( config model_args: ~utils.generic.ModelArgs | None = None adapter_args: ~utils.generic.AdapterArgs | None = None lora_args: ~utils.generic.LoRAArgs | None = None tokenizer_args: ~utils.generic.TokenizerArgs | None = None dataset_args: ~utils.generic.DatasetArgs | None = None data_args: ~utils.generic.DataArgs | None = None training_args: ~utils.generic.TrainingArgs | None = None generation_args: ~utils.generic.GenerationArgs | None = None vision_tower_args: ~utils.generic.VisionTowerArgs | None = None qlora_args: ~utils.generic.QLoRAArgs | None = None vision_tower_template_args: ~utils.generic.VisionTowerTemplateArgs | None = None video_tower_args: ~utils.generic.VideoTowerArgs | None = None vision_config: ~utils.generic.VisionConfig | None = None video_config: ~utils.generic.VideoConfig | None = None load_dataset: bool | None = None load_data_collator: bool | None = None load_processor: bool | None = None load_lora_adapter: bool | None = None load_adapter: bool | None = None load_qlora_adapter: bool | None = None **kwargs: typing_extensions.Unpack[transformers.modeling_utils.PreTrainedModelKwargs] )
参数
- config (MistralForCausalLM) — 模型配置类,包含模型的所有参数。使用配置文件进行初始化不会加载与模型相关的权重,只会加载配置。请查看 from_pretrained() 方法来加载模型权重。
用于因果语言建模的 Mistral 模型。
此模型继承自 PreTrainedModel。查看其父类文档,了解库为所有模型实现的通用方法(例如下载或保存、调整输入嵌入大小、修剪头等)。
此模型也是一个 PyTorch torch.nn.Module 子类。像普通的 PyTorch Module 一样使用它,并参考 PyTorch 文档了解一般用法和行为的所有相关信息。
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None cache_position: torch.LongTensor | None = None logits_to_keep: int | torch.Tensor = 0 **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) → transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)
参数
- input_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 词汇表中输入序列标记的索引。默认情况下,将忽略填充(padding)。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (形状为
(batch_size, sequence_length)的torch.Tensor, 可选) — 用于避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]中:- 1 表示**未被掩码**的标记,
- 0 表示**被掩码**的标记。
- position_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 输入序列中每个标记在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, 可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括在解码前一阶段由模型返回的past_key_values,此时use_cache=True或config.use_cache=True。只允许 Cache 实例作为输入,请参阅我们的 kv cache guide。如果未传递
past_key_values,则默认初始化 DynamicCache。模型将输出与作为输入馈入的缓存格式相同的缓存格式。
如果使用了
past_key_values,则用户应仅输入形状为(batch_size, unprocessed_length)的未处理input_ids(即没有向此模型提供过去键值状态的标记),而不是所有形状为(batch_size, sequence_length)的input_ids。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)的torch.FloatTensor, 可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递input_ids。如果你希望对如何将input_ids索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这很有用。 - labels (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 用于计算掩码语言建模损失的标签。索引应在[0, ..., config.vocab_size]范围内或为 -100(请参阅input_ids文档字符串)。索引设置为-100的标记将被忽略(掩码),仅对标签在[0, ..., config.vocab_size]范围内的标记计算损失。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。 - cache_position (形状为
(sequence_length)的torch.LongTensor, 可选) — 描述输入序列标记在序列中位置的索引。与position_ids不同,此张量不受填充影响。它用于在正确位置更新缓存并推断完整的序列长度。 - logits_to_keep (
Union[int, torch.Tensor], 可选, defaults to0) — 如果是一个int,则计算最后logits_to_keep个标记的 logits。如果为0,则计算所有input_ids的 logits(特殊情况)。生成时只需要最后一个标记的 logits,只计算该标记的 logits 可以节省内存,这对于长序列或大词汇表大小非常重要。如果是一个torch.Tensor,则必须是 1D 张量,对应于在序列长度维度中要保留的索引。这在使用打包张量格式(批次和序列长度为单维度)时很有用。
返回
transformers.modeling_outputs.CausalLMOutputWithPast or tuple(torch.FloatTensor)
一个 transformers.modeling_outputs.CausalLMOutputWithPast 或一个 torch.FloatTensor 元组(如果传递了 return_dict=False 或 config.return_dict=False),包含根据配置 (MistralConfig) 和输入的不同元素。
-
loss (
torch.FloatTensor形状为(1,),可选,当提供labels时返回) — 语言建模损失(用于下一个 token 预测)。 -
logits (形状为
(batch_size, sequence_length, config.vocab_size)的torch.FloatTensor) — 语言建模头部的预测分数(SoftMax 之前的每个词汇标记的分数)。 -
past_key_values (
Cache, optional, 当传递use_cache=True或当config.use_cache=True时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南。包含预计算的隐藏状态(自注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
MistralForCausalLM 前向传播方法,覆盖了 __call__ 特殊方法。
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
示例
>>> from transformers import AutoTokenizer, MistralForCausalLM
>>> model = MistralForCausalLM.from_pretrained("meta-mistral/Mistral-2-7b-hf")
>>> tokenizer = AutoTokenizer.from_pretrained("meta-mistral/Mistral-2-7b-hf")
>>> prompt = "Hey, are you conscious? Can you talk to me?"
>>> inputs = tokenizer(prompt, return_tensors="pt")
>>> # Generate
>>> generate_ids = model.generate(inputs.input_ids, max_length=30)
>>> tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
"Hey, are you conscious? Can you talk to me?\nI'm not conscious, but I can talk to you."MistralForSequenceClassification
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) → transformers.modeling_outputs.SequenceClassifierOutputWithPast or tuple(torch.FloatTensor)
参数
- input_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 词汇表中输入序列标记的索引。默认情况下,将忽略填充(padding)。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (形状为
(batch_size, sequence_length)的torch.Tensor, 可选) — 用于避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]中:- 1 表示**未被掩码**的标记,
- 0 表示**被掩码**的标记。
- position_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 输入序列中每个标记在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, 可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括在解码前一阶段由模型返回的past_key_values,此时use_cache=True或config.use_cache=True。只允许 Cache 实例作为输入,请参阅我们的 kv cache guide。如果未传递
past_key_values,则默认初始化 DynamicCache。模型将输出与作为输入馈入的缓存格式相同的缓存格式。
如果使用了
past_key_values,则用户应仅输入形状为(batch_size, unprocessed_length)的未处理input_ids(即没有向此模型提供过去键值状态的标记),而不是所有形状为(batch_size, sequence_length)的input_ids。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)的torch.FloatTensor, 可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递input_ids。如果你希望对如何将input_ids索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这很有用。 - labels (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 用于计算掩码语言建模损失的标签。索引应在[0, ..., config.vocab_size]范围内或为 -100(请参阅input_ids文档字符串)。索引设置为-100的标记将被忽略(掩码),仅对标签在[0, ..., config.vocab_size]范围内的标记计算损失。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。
返回
transformers.modeling_outputs.SequenceClassifierOutputWithPast 或 tuple(torch.FloatTensor)
A transformers.modeling_outputs.SequenceClassifierOutputWithPast or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.
-
loss (形状为
(1,)的torch.FloatTensor,可选,当提供labels时返回) — 分类损失(如果 config.num_labels==1,则为回归损失)。 -
logits (形状为
(batch_size, config.num_labels)的torch.FloatTensor) — 分类(如果 config.num_labels==1,则为回归)分数(SoftMax 之前)。 -
past_key_values (
Cache, optional, 当传递use_cache=True或当config.use_cache=True时返回) — 它是 Cache 实例。更多详情,请参阅我们的 kv cache 指南。包含预计算的隐藏状态(自注意力块中的键和值),可用于(参见
past_key_values输入)加速顺序解码。 -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
The GenericForSequenceClassification forward method, overrides the __call__ special method.
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
MistralForTokenClassification
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None labels: torch.LongTensor | None = None use_cache: bool | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) → transformers.modeling_outputs.TokenClassifierOutput or tuple(torch.FloatTensor)
参数
- input_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 词汇表中输入序列标记的索引。默认情况下,将忽略填充(padding)。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (形状为
(batch_size, sequence_length)的torch.Tensor, 可选) — 用于避免对填充标记索引执行注意力的掩码。掩码值选择在[0, 1]中:- 1 表示**未被掩码**的标记,
- 0 表示**被掩码**的标记。
- position_ids (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 输入序列中每个标记在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, 可选) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括在解码前一阶段由模型返回的past_key_values,此时use_cache=True或config.use_cache=True。只允许 Cache 实例作为输入,请参阅我们的 kv cache guide。如果未传递
past_key_values,则默认初始化 DynamicCache。模型将输出与作为输入馈入的缓存格式相同的缓存格式。
如果使用了
past_key_values,则用户应仅输入形状为(batch_size, unprocessed_length)的未处理input_ids(即没有向此模型提供过去键值状态的标记),而不是所有形状为(batch_size, sequence_length)的input_ids。 - inputs_embeds (形状为
(batch_size, sequence_length, hidden_size)的torch.FloatTensor, 可选) — 可选地,你可以选择直接传递嵌入表示,而不是传递input_ids。如果你希望对如何将input_ids索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这很有用。 - labels (形状为
(batch_size, sequence_length)的torch.LongTensor, 可选) — 用于计算掩码语言建模损失的标签。索引应在[0, ..., config.vocab_size]范围内或为 -100(请参阅input_ids文档字符串)。索引设置为-100的标记将被忽略(掩码),仅对标签在[0, ..., config.vocab_size]范围内的标记计算损失。 - use_cache (
bool, 可选) — 如果设置为True,将返回past_key_values键值状态,可用于加速解码(参见past_key_values)。
返回
transformers.modeling_outputs.TokenClassifierOutput 或 tuple(torch.FloatTensor)
A transformers.modeling_outputs.TokenClassifierOutput or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.
-
loss (形状为
(1,)的torch.FloatTensor,可选,当提供labels时返回) — 分类损失。 -
logits (形状为
(batch_size, sequence_length, config.num_labels)的torch.FloatTensor) — 分类分数(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
The GenericForTokenClassification forward method, overrides the __call__ special method.
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。
MistralForQuestionAnswering
forward
< source >( input_ids: torch.LongTensor | None = None attention_mask: torch.Tensor | None = None position_ids: torch.LongTensor | None = None past_key_values: transformers.cache_utils.Cache | None = None inputs_embeds: torch.FloatTensor | None = None start_positions: torch.LongTensor | None = None end_positions: torch.LongTensor | None = None **kwargs: typing_extensions.Unpack[transformers.utils.generic.TransformersKwargs] ) → transformers.modeling_outputs.QuestionAnsweringModelOutput or tuple(torch.FloatTensor)
参数
- input_ids (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 输入序列中 token 在词汇表中的索引。默认情况下,填充(padding)将被忽略。可以使用 AutoTokenizer 获取索引。有关详细信息,请参阅 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensorof shape(batch_size, sequence_length), optional) — 用于避免在填充 token 索引上执行注意力操作的掩码。掩码值选择范围为[0, 1]:- 1 表示**未被掩码**的 token,
- 0 表示**被掩码**的 token。
- position_ids (
torch.LongTensorof shape(batch_size, sequence_length), optional) — 输入序列中每个 token 在位置嵌入中的位置索引。选择范围为[0, config.n_positions - 1]。 - past_key_values (
~cache_utils.Cache, optional) — 预先计算的隐藏状态(自注意力块和交叉注意力块中的键和值),可用于加速顺序解码。这通常包括在解码的先前阶段由模型返回的past_key_values,此时use_cache=True或config.use_cache=True。仅允许使用 Cache 实例作为输入,请参阅我们的 kv cache 指南。如果未传入
past_key_values,则默认初始化 DynamicCache。模型将输出与输入时相同的缓存格式。
如果使用了
past_key_values,用户应只输入未处理的input_ids(即未将其过去的键值状态提供给此模型的那些 input_ids),形状为(batch_size, unprocessed_length),而不是形状为(batch_size, sequence_length)的所有input_ids。 - inputs_embeds (
torch.FloatTensorof shape(batch_size, sequence_length, hidden_size), optional) — 可选地,您可以选择直接传递嵌入表示,而不是传递input_ids。如果您希望对如何将input_ids索引转换为关联向量有比模型内部嵌入查找矩阵更多的控制,这将很有用。 - start_positions (
torch.LongTensorof shape(batch_size,), optional) — 用于计算 token 分类损失的标注跨度起始位置(索引)的标签。位置被限制在序列长度 (sequence_length) 范围内。序列外的位置不计入损失计算。 - end_positions (
torch.LongTensorof shape(batch_size,), optional) — 用于计算 token 分类损失的标注跨度结束位置(索引)的标签。位置被限制在序列长度 (sequence_length) 范围内。序列外的位置不计入损失计算。
返回
transformers.modeling_outputs.QuestionAnsweringModelOutput 或 tuple(torch.FloatTensor)
A transformers.modeling_outputs.QuestionAnsweringModelOutput or a tuple of torch.FloatTensor (if return_dict=False is passed or when config.return_dict=False) comprising various elements depending on the configuration (None) and inputs.
-
loss (
torch.FloatTensorof shape(1,), 可选, 当提供labels时返回) — 总范围提取损失是起始位置和结束位置的交叉熵之和。 -
start_logits (
torch.FloatTensorof shape(batch_size, sequence_length)) — 范围起始分数(SoftMax 之前)。 -
end_logits (
torch.FloatTensorof shape(batch_size, sequence_length)) — 范围结束分数(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor), optional, 当传递output_hidden_states=True或当config.output_hidden_states=True时返回) —torch.FloatTensor的元组(一个用于嵌入层的输出,如果模型有嵌入层;+一个用于每个层的输出),形状为(batch_size, sequence_length, hidden_size)。模型在每个层输出的隐藏状态以及可选的初始嵌入输出。
-
attentions (
tuple(torch.FloatTensor), optional, 当传递output_attentions=True或当config.output_attentions=True时返回) —torch.FloatTensor的元组(每个层一个),形状为(batch_size, num_heads, sequence_length, sequence_length)。注意力 softmax 后的注意力权重,用于计算自注意力头中的加权平均值。
The GenericForQuestionAnswering forward method, overrides the __call__ special method.
虽然 forward pass 的实现需要在此函数中定义,但你应该在之后调用
Module实例而不是这个,因为前者负责运行预处理和后处理步骤,而后者会静默地忽略它们。