完全分片数据并行实用程序
accelerate.utils.merge_fsdp_weights
< 源代码 >( checkpoint_dir: str output_path: str safe_serialization: bool = True remove_checkpoint_dir: bool = False )
将来自分片 FSDP 模型检查点的权重合并到一个单独的组合检查点中。如果模型使用了 SHARDED_STATE_DICT
,则应使用此方法。如果 safe_serialization
为真,则权重将保存到 {output_path}/model.safetensors
,否则保存到 pytorch_model.bin
。
注意:这是一个 CPU 绑定的过程。
class accelerate.FullyShardedDataParallelPlugin
< 源代码 >( sharding_strategy: typing.Any = None backward_prefetch: typing.Any = None mixed_precision_policy: typing.Any = None auto_wrap_policy: Optional = None cpu_offload: typing.Any = None ignored_modules: Optional = None state_dict_type: typing.Any = None state_dict_config: typing.Any = None optim_state_dict_config: typing.Any = None limit_all_gathers: bool = True use_orig_params: bool = True param_init_fn: Optional = None sync_module_states: bool = True forward_prefetch: bool = False activation_checkpointing: bool = False )
该插件用于启用完全分片数据并行。