Transformers 文档
Transformers
并获得增强的文档体验
开始使用
Transformers
Transformers 为文本、计算机视觉、音频、视频和多模态模型提供了最先进的机器学习模型定义框架,支持推理和训练。
它将模型定义集中化,使这一定义在整个生态系统中得到统一。`transformers` 是跨框架的枢纽:如果一个模型定义得到支持,它将与大多数训练框架(Axolotl、Unsloth、DeepSpeed、FSDP、PyTorch-Lightning 等)、推理引擎(vLLM、SGLang、TGI 等)以及利用 `transformers` 模型定义的相邻建模库(llama.cpp、mlx 等)兼容。
我们致力于支持新的最先进模型,并通过使其模型定义简单、可定制且高效来普及它们的使用。
在 Hugging Face Hub 上有超过 100 万个 Transformers 模型检查点 供您使用。
立即探索 Hub,找到一个模型并使用 Transformers 帮助您快速上手。
功能
Transformers 提供了使用最先进的预训练模型进行推理或训练所需的一切。一些主要功能包括:
- Pipeline:为许多机器学习任务(如文本生成、图像分割、自动语音识别、文档问答等)提供简单且优化的推理类。
- Trainer:一个全面的训练器,支持混合精度、torch.compile 和 FlashAttention 等功能,用于训练和分布式训练 PyTorch 模型。
- generate:使用大语言模型(LLM)和视觉语言模型(VLM)进行快速文本生成,包括对流式处理和多种解码策略的支持。
设计
阅读我们的设计理念,了解更多关于 Transformers 的设计原则。
Transformers 专为开发者、机器学习工程师和研究人员设计。其主要设计原则是:
- 快速易用:每个模型仅由三个主要类(配置、模型和预处理器)实现,并可使用 Pipeline 或 Trainer 快速用于推理或训练。
- 预训练模型:通过使用预训练模型而不是训练一个全新的模型来减少您的碳足迹、计算成本和时间。每个预训练模型都尽可能地复现原始模型,并提供最先进的性能。
学习
如果您是 Transformers 的新手或想了解更多关于 transformer 模型的信息,我们建议您从 LLM 课程 开始。这门综合课程涵盖了从 transformer 模型工作原理的基础知识到各种任务的实际应用。您将学习完整的工作流程,从整理高质量数据集到微调大语言模型和实现推理能力。该课程包含理论和实践练习,帮助您在学习过程中建立扎实的 transformer 模型基础知识。
< > 在 GitHub 上更新