ExecuTorch 文档

快速入门

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

快速入门

导出

您可以轻松地将 🤗 Transformers 模型导出到 ExecuTorch

optimum-cli export executorch --model meta-llama/Llama-3.2-1B --recipe xnnpack --output_dir meta_llama3_2_1b_executorch

推理

要加载模型并运行推理,您只需将 `AutoModelForCausalLM` 类替换为相应的 `ExecuTorchModelForCausalLM` 类。您还可以在加载模型时即时加载 PyTorch 检查点并将其转换为 ExecuTorch。

- from transformers import AutoModelForCausalLM
+ from optimum.executorch import ExecuTorchModelForCausalLM
  from transformers import AutoTokenizer

  model_id = "meta-llama/Llama-3.2-1B"
  tokenizer = AutoTokenizer.from_pretrained(model_id)
- model = AutoModelForCausalLM.from_pretrained(model_id)
+ model = ExecuTorchModelForCausalLM.from_pretrained(model_id)