Accelerate 文档

加速

Hugging Face's logo
加入 Hugging Face 社区

并获得增强的文档体验

开始使用

Accelerate

Accelerate 是一个库,只需添加四行代码,即可在任何分布式配置中运行相同的 PyTorch 代码!简而言之,大规模训练和推理变得简单、高效且适应性强。

+ from accelerate import Accelerator
+ accelerator = Accelerator()

+ model, optimizer, training_dataloader, scheduler = accelerator.prepare(
+     model, optimizer, training_dataloader, scheduler
+ )

  for batch in training_dataloader:
      optimizer.zero_grad()
      inputs, targets = batch
      inputs = inputs.to(device)
      targets = targets.to(device)
      outputs = model(inputs)
      loss = loss_function(outputs, targets)
+     accelerator.backward(loss)
      optimizer.step()
      scheduler.step()

Accelerate 基于 torch_xlatorch.distributed 构建,负责繁重的工作,因此您无需编写任何自定义代码来适应这些平台。转换现有代码库以利用 DeepSpeed,执行完全分片数据并行,并自动支持混合精度训练!

为了更好地理解这个过程,请务必查看教程

然后,这段代码可以通过 Accelerate 的 CLI 界面在任何系统上启动

accelerate launch {my_script.py}
< > 在 GitHub 上更新