Transformers 文档

压缩张量

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

压缩张量

compressed-tensors 扩展了 safetensors 文件,支持压缩张量数据类型,为存储和加载各种量化和稀疏格式(如稠密、整数量化(int8)、浮点量化(fp8)和打包量化(int4 或 int8 权重打包到 int32))提供统一的检查点格式。

compressed-tensors 支持使用 PEFT 进行微调,并且还包括以下功能。

  • fp8、int4、int8 权重和激活精度。
  • 量化比例和零点策略,适用于 张量、通道、组、块、令牌
  • 动态逐令牌激活量化(或任何静态策略)。
  • 权重稀疏性(非结构化或半结构化如 2:4)可以与量化结合使用以实现极致压缩。
  • 对任意模块进行量化,而不仅仅是 nn.Linear 模块。
  • 通过名称或类来支持特定模块。

PyPI 安装 compressed-tensors 以获取最新的稳定版本(推荐),或从源代码安装以获取最新功能。

PyPI
源代码
pip install compressed-tensors

使用 compressed-tensors 标签 在 Hugging Face Hub 上查找兼容模型。

目前,只能加载已量化的模型,并且一旦加载模型,就无法保存。要将模型量化为 compressed-tensors 格式,请参阅 llm-compressor。此外,模型可以独立创建并使用 compressed-tensors 配置进行序列化。

from transformers import AutoModelForCausalLM

ct_model = AutoModelForCausalLM.from_pretrained("nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf", device_map="auto")

# measure memory usage
mem_params = sum([param.nelement()*param.element_size() for param in ct_model.parameters()])
print(f"{mem_params/2**30:.4f} GB")
# 8.4575 GB

模型检查点

压缩张量模型通过其配置条目定义。以下示例取自 nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hfconfig.json 文件。

有很多条目可以实现在压缩期间和压缩之后进行灵活表达,但是加载和推理的条目可以简化为只关注几个关键条目。

"quantization_config": {
  "config_groups": {
    "group_0": {
      "input_activations": {
        "num_bits": 8,
        "strategy": "tensor",
        "type": "float"
      },
      "targets": ["Linear"],
      "weights": {
        "num_bits": 8,
        "strategy": "tensor",
        "type": "float"
      }
    }
  },
  "format": "naive-quantized",
  "ignore": ["lm_head"],
  "quant_method": "compressed-tensors",
  "quantization_status": "frozen"
},

配置文件指定了配置组(group_0)的量化,其中包括权重和激活量化为 fp8,采用静态逐张量策略。lm_head 模块未量化,如 ignore 键所示。

要更详细地查看模型权重,请在模型卡上使用 safetensors 查看器,以查看所有 nn.Linear 模块的量化权重、输入比例和权重比例。

张量(Tensors) 形状 精度
model.layers.0.input_layernorm.weight [4 096] BF16
model.layers.0.mlp.down_proj.input_scale [1] BF16
model.layers.0.mlp.down_proj.weight [4 096, 14 336] F8_E4M3
model.layers.0.mlp.down_proj.weight_scale [1] BF16
model.layers.0.mlp.gate_proj.input_scale [1] BF16
model.layers.0.mlp.gate_proj.weight [14 336, 4 096] F8_E4M3
model.layers.0.mlp.gate_proj.weight_scale [1] BF16
model.layers.0.mlp.up_proj.input_scale [1] BF16
model.layers.0.mlp.up_proj.weight [14 336, 4 096] F8_E4M3
model.layers.0.mlp.up_proj.weight_scale [1] BF16
model.layers.0.post_attention_layernorm.weight [4 096] BF16
model.layers.0.self_attn.k_proj.input_scale [1] BF16
model.layers.0.self_attn.k_proj.weight [1 024, 4 096] F8_E4M3
model.layers.0.self_attn.k_proj.weight_scale [1] BF16
model.layers.0.self_attn.o_proj.input_scale [1] BF16
model.layers.0.self_attn.o_proj.weight [4 096, 4 096] F8_E4M3
model.layers.0.self_attn.o_proj.weight_scale [1] BF16
model.layers.0.self_attn.q_proj.input_scale [1] BF16
model.layers.0.self_attn.q_proj.weight [4 096, 4 096] F8_E4M3
model.layers.0.self_attn.q_proj.weight_scale [1] BF16
model.layers.0.self_attn.v_proj.input_scale [1] BF16
model.layers.0.self_attn.v_proj.weight [1 024, 4 096] F8_E4M3
model.layers.0.self_attn.v_proj.weight_scale [1] BF16

当使用 ~quantizers.HFQuantizer 集成加载 compressed-tensors 模型时,量化配置中指定的所有 nn.Linear 模块都将被 CompressedLinear 模块替换,这些模块管理压缩权重和推理的前向传递。lm_head 模块仍保留为未量化的 nn.Linear 模块。

from transformers import AutoModelForCausalLM

ct_model = AutoModelForCausalLM.from_pretrained("nm-testing/Meta-Llama-3.1-8B-Instruct-FP8-hf")
print(ct_model)
"""
LlamaForCausalLM(
  (model): LlamaModel(
    (embed_tokens): Embedding(128256, 4096)
    (layers): ModuleList(
      (0-31): 32 x LlamaDecoderLayer(
        (self_attn): LlamaSdpaAttention(
          (q_proj): CompressedLinear(
            in_features=4096, out_features=4096, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (k_proj): CompressedLinear(
            in_features=4096, out_features=1024, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (v_proj): CompressedLinear(
            in_features=4096, out_features=1024, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (o_proj): CompressedLinear(
            in_features=4096, out_features=4096, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (rotary_emb): LlamaRotaryEmbedding()
        )
        (mlp): LlamaMLP(
          (gate_proj): CompressedLinear(
            in_features=4096, out_features=14336, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (up_proj): CompressedLinear(
            in_features=4096, out_features=14336, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (down_proj): CompressedLinear(
            in_features=14336, out_features=4096, bias=False
            (input_observer): MovingAverageMinMaxObserver()
            (weight_observer): MovingAverageMinMaxObserver()
          )
          (act_fn): SiLU()
        )
        (input_layernorm): LlamaRMSNorm((4096,), eps=1e-05)
        (post_attention_layernorm): LlamaRMSNorm((4096,), eps=1e-05)
      )
    )
    (norm): LlamaRMSNorm((4096,), eps=1e-05)
    (rotary_emb): LlamaRotaryEmbedding()
  )
  (lm_head): Linear(in_features=4096, out_features=128256, bias=False)
)
"""
< > 在 GitHub 上更新