Transformers 文档

CPU

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

CPU

现代CPU能够通过利用底层硬件内置的优化和在 fp16 或 bf16 数据类型上进行训练来高效地训练大型模型。

本指南重点介绍如何使用混合精度在 Intel CPU 上训练大型模型。PyTorch 训练的 CPU 后端已启用 AMP。

Trainer 通过添加 --use_cpu--bf16 参数支持 CPU 上的 AMP 训练。以下示例演示了 run_qa.py 脚本。

python run_qa.py \
 --model_name_or_path google-bert/bert-base-uncased \
 --dataset_name squad \
 --do_train \
 --do_eval \
 --per_device_train_batch_size 12 \
 --learning_rate 3e-5 \
 --num_train_epochs 2 \
 --max_seq_length 384 \
 --doc_stride 128 \
 --output_dir /tmp/debug_squad/ \
 --bf16 \
 --use_cpu

这些参数也可以添加到 TrainingArguments,如下所示。

training_args = TrainingArguments(
    output_dir="./outputs",
    bf16=True,
    use_cpu=True,
)

资源

用 Intel Sapphire Rapids 加速 PyTorch Transformers 博客文章中了解更多关于在 Intel CPU 上训练的信息。

< > 在 GitHub 上更新