为什么 SGLang 是 LLM 工作流的颠覆者

社区文章 发布于 2025 年 7 月 7 日

我们正生活在一个开源大型语言模型(LLM)的黄金时代。想想 LLaMADeepSeekMistral——它们将类 ChatGPT 的强大能力直接带到我们手中。但问题是:一旦你超越了简单的问答,用 LLM 构建任何真正动态或多步骤的东西,都会感觉像是在与章鱼搏斗。

无论是复杂的聊天机器人、个性化导师、智能助手、自动化评估器还是复杂代理,串联提示、可靠地解析输出、管理延迟以及为真实用户扩展的过程很快就会变成一个令人沮丧的拼凑。即使使用 LangChain 或 vLLM 等流行工具,整个体验也常常感觉……嗯,有点粗糙。

这正是 SGLang 的用武之地。它不仅仅是另一个服务后端或一个花哨的提示封装器。它是一个经过深思熟虑设计的、从头开始构建的完整堆栈编程和执行框架,专为结构化 LLM 工作流而生。它还原生支持生产级应用程序所需的速度、规模和结构。

让我们深入了解 SGLang 的真正不同之处——以及为什么像 xAI 和 DeepSeek 这样的领先团队已经在其生产环境中利用它。


SGLang 解决的真正问题

在使用 LLM 进行构建时,你经常会遇到需要以下情况的场景:

  • 向模型提出多个问题,有时是同时进行。
  • 根据模型的响应做出实时决策。
  • 以非常特定的格式获取输出,例如清晰的 JSON。
  • 而且,至关重要的是,确保所有这些都以极快的速度和可靠性发生。

大多数框架的典型方法是将 LLM 视为“黑盒 API”。你发送一个提示,得到一个答案,然后手动决定下一步做什么。如果你想要复杂的逻辑、分支路径或可重用组件,你只能将提示串联起来,通常通过脆弱的字符串解析来实现。

SGLang 则完全颠覆了这种模式。它将 LLM 交互视为可编程逻辑。你可以使用熟悉的 Python 语法编写实际工作流,但其中包含强大的、LLM 特定的构建块:

原语 功能 示例
gen() 生成文本片段 gen("title", stop="\n")
fork() 将执行分支为多个路径 用于并行子任务
join() 将分支合并回来 用于合并输出
select() 从多个选项中选择一个 用于受控逻辑,如多项选择

一个实际例子:给作文打分

假设你正在构建一个自动化评估器,用于从清晰度、创造力和论据三个维度对作文进行评分。以下是使用 SGLang 实现的方法:

@function
def grade_essay(s, essay):
    s += f"Evaluate this essay:\n{essay}\n"
    forks = s.fork(["Clarity", "Creativity", "Evidence"])
    for f, aspect in zip(forks, ["Clarity", "Creativity", "Evidence"]):
        f += f"Rate the {aspect} from 1 to 5: "
        f += gen("score", stop="\n")
    results = s.join(forks)
    return results

这里发生了什么?

  • 它动态地创建了三个独立的执行路径,每个路径对应一个评分方面。
  • 它同时获取每个方面的单独分数。
  • 然后,它无缝地将这些并行结果合并成一个结构化输出。

这不仅仅是巧妙的提示工程;它更是结构化推理。而这一切的魔力都源于 SGLang 精心设计的底层架构。

image/png


SGLang 架构概述

image/png

幕后大脑:前端 + 后端

SGLang 不仅仅是一种领域特定语言 (DSL)。它是一个完整的、集成的执行系统,设计时有清晰的分工:

层级 功能 重要性
前端 你定义 LLM 逻辑的地方(使用 genforkjoin 等) 这使你的代码保持清晰、可读,并且你的工作流易于重用。
后端 SGLang 智能地找出如何最有效地运行你的逻辑的地方。 这是速度、可扩展性和优化推理真正发挥作用的地方。

让我们揭开面纱,看看后端正在进行哪些真正卓越的工程。

image/png


1. 使用 RadixAttention 实现更智能的内存管理

(KV 缓存:这就像 LLM 的短期记忆,存储提示的一部分以便更快地进行后续生成。)

这是一个常见的瓶颈:当 LLM 生成长响应或处理一系列相关提示时,它不需要每次都重新读取整个初始提示。它会将中间计算存储在一个名为 KV 缓存 的东西中。但是许多 LLM 服务器在每次生成调用后都会丢弃这个有价值的缓存,即使下一个请求使用了高度相似的提示结构。

SGLang 使用一种巧妙的技术,称为 RadixAttention。它将这些常见的提示前缀——你的提示的共同开头——存储在一个基数树中。将基数树想象成一个高度优化的前缀文件系统。这使得 SGLang 能够:

  • 立即检测新提示何时共享一个共同的开头。
  • 重用那些之前计算和缓存的值。
  • 避免大量冗余计算,节省宝贵的 GPU 周期。

image/png

为什么这很重要?

  • 它意味着许多模型(如 LLaMA、DeepSeek、Mixtral)的吞吐量可提升高达 6 倍
  • 它意味着更高的 GPU 效率,尤其适用于模板化提示或处理批次相似请求时。
  • 关键是,它能够以显著降低的每次请求成本实现大规模服务。

image/png

image/png


2. 使用压缩有限状态机 (FSM) 保证输出格式

你是否曾要求 ChatGPT 返回 JSON,结果却得到一个缺少逗号或括号错位的响应?这是一个常见的令人头疼的问题。

SGLang 通过直接从你定义的输出 schema(例如,JSON schema,甚至只是一个正则表达式模式)编译有限状态机 (FSM) 来消除这种困扰。这些 FSM 就像一个实时“语法检查器”,逐个 token 地指导生成过程。这确保了:

  • 输出始终符合你的规则,语法正确。
  • 无效的 token 在模型甚至提出它们之前就被自动阻止。
  • 解码更快,因为模型不会浪费时间考虑不太可能或不正确的 token 序列。

快速示例: 如果你告诉 SGLang 你需要如下输出:{"title": "The Future of AI", "score": 4}

FSM 将会:

  • 强制先出现开头的 {
  • 接下来只允许出现像 "title" 这样的有效键。
  • 确保键后面跟着一个 :,然后是一个有效的字符串或数字作为值。
  • 保证一个干净的结束 }

这就像给 LLM 一套高度具体、不可破坏的输出指令。

image/png

image/png


3. 智能调度和负载均衡

SGLang 的后端还具有“零开销”的 CPU 端调度器。这不需要你手动配置;它在后台智能地工作:

  • 它会自动将相似的调用批量处理以实现最大效率。
  • 优先处理最能从 KV 缓存重用中受益的任务,从而最大限度地提高整体吞吐量。
  • 它致力于最小化尾部延迟——最慢请求完成所需的时间——确保流畅、高吞吐量的服务体验。

这意味着你的服务器性能更好,能够自然地随需求扩展,而无需你手动调整批处理大小、管理提示缓冲区或微调任务队列。它默认就很智能。


4. 使用 Torch 原生功能进行深度优化

(TorchAO:PyTorch 的低级量化和模型优化工具包。)

SGLang 原生构建于 PyTorch 之上,这意味着它可以立即利用 PyTorch 最新和最棒的性能特性:

  • torch.compile():这个强大的功能可以将你的 Python 代码编译成高性能图,从而显著提高速度。SGLang 直接受益于此。
  • TorchAO:它为量化模型(例如,FP8、INT4)和稀疏推理等高级技术提供原生支持。这大大减少了内存占用,并且通常可以提高推理速度。
  • 广泛的 GPU 兼容性:由于其 PyTorch 基础,SGLang 可以无缝地跨所有主要的 GPU 提供商(NVIDIA、AMD)工作,并已为即将推出的 AI 加速芯片做好准备。

这意味着使用 SGLang 部署的模型不仅经过优化,而且是真正适合生产的,而无需更改你的应用程序代码中的任何一行。


一些基准测试

image/png

经过生产验证:xAI、Groq、DeepSeek 及其他

这不仅仅是理论研究或酷炫的演示;SGLang 已经在大规模生产中为真实产品提供支持。

实际案例包括:

  • xAI (Grok): 埃隆·马斯克的雄心勃勃的聊天机器人平台 Grok 据报道使用 SGLang 作为其核心逻辑和性能。
  • DeepSeek: 他们的强大 V3 和 R1 模型在发布之初就原生支持 SGLang,并覆盖了各种硬件和云平台(NVIDIA、AMD、Azure、RunPod)。

此外,为了强调其日益增长的重要性,SGLang 现已正式成为 PyTorch 生态系统的一部分,并得到了 LMSYS(Vicuna 和 Chatbot Arena 的创新者)的强大支持。


SGLang 与其他工具的快速比较

特性 LangChain / vLLM / TGI SGLang
清晰的 LLM 编程 ❌ (主要是提示链) ✅ 原生结构化逻辑与控制
KV 缓存重用 ✅ 智能的、前缀感知的内存重用 (RadixAttention)
结构化解码 ✅ 保证输出格式 (FSMs)
原生 PyTorch 优化 部分 torch.compile, 量化, 稀疏推理
实际应用 在此特定功能方面受限 ✅ Grok, DeepSeek, Groq – 已在生产规模验证

TL;DR – 你为什么要关心

如果你正在认真地使用 LLM 构建任何需要满足以下条件的系统:

  • 多步骤且动态
  • 本质上可靠
  • 极速快速
  • 易于扩展
  • 并提供结构化输出

……那么 SGLang 提供了一种真正专用的语言、智能优化的后端以及能区分业余项目和生产系统的性能。

无需费力地将不同的工具和自定义脚本拼凑在一起,你将获得一个统一的系统,让你能够:

  • 清晰地编写 LLM 逻辑。
  • 高效地执行它。
  • 并随着需求的增长自然扩展

行业领导者迅速采用它也就不足为奇了。


想了解更多?


注:此博客文章中的某些图片引用自 https://arxiv.org/pdf/2312.07104https://slideslive.com/39027411/sglang-efficient-execution-of-structured-language-model-programs?ref=speaker-78373

社区

注册登录 发表评论