# PR #22390 完整报告

- 仓库：`sgl-project/sglang`
- 标题：[DSA] Enable all reduce fusion for DSA models 
- 合并时间：2026-04-10 03:42
- 原文链接：http://prhub.com.cn/sgl-project/sglang/pull/22390

---

# 执行摘要

- 一句话：为 DeepSeek V3.2 和 GLM-5 DSA 模型启用 AllReduce 融合优化。
- 推荐动作：该 PR 实现简单，变更点集中，适合快速了解 DSA 模型优化配置。值得关注的是：1. 了解 AllReduce 融合在 SGLang 中的具体实现机制。2. 查看 server_args.py 中 _handle_model_specific_adjustments 方法的完整逻辑，理解模型特定调整的整体设计。3. 关注后续是否有针对这些模型的性能测试结果。

# 功能与动机

根据 PR 标题和文件变更，该 PR 的目标是 "Enable all reduce fusion for DSA models"。PR body 中明确提到 "Including DeepSeek V3.2 and GLM-5"，表明要为这两种 DSA（分布式张量并行）模型启用 AllReduce 融合功能。虽然没有详细的 issue 说明，但从变更内容可以推断，这可能是为了优化这些模型的分布式性能，减少通信开销。

# 实现拆解

实现非常简单，只修改了一个文件：python/sglang/srt/server_args.py。在 _handle_model_specific_adjustments 方法中，将 "DeepseekV32ForCausalLM" 和 "GlmMoeDsaForCausalLM" 两个模型架构添加到支持 AllReduce 融合的模型列表中。具体是在 model_arch in [...] 的判断条件中增加了这两个模型。

关键文件：
- `python/sglang/srt/server_args.py`（模块 server_args）: 这是唯一被修改的文件，包含了模型特定调整的核心逻辑，决定哪些模型启用 AllReduce 融合。

关键符号：_handle_model_specific_adjustments


# 评论区精华

review 讨论非常有限，只有一位 reviewer（nvpohanh）给出了空白的 APPROVED 评论，没有具体的技术讨论。PR 的讨论主要集中在 CI 测试的执行上，作者 Fridge003 通过多次 /rerun-test 命令验证了修改在不同测试环境下的正确性，包括 8-GPU H200 和 4-GPU B200 环境下的 DSA 模型测试。

- CI 测试验证 (testing): 所有 CI 测试通过，表明修改没有破坏现有功能。

# 风险与影响

- 风险：风险较低但需注意：1. 核心风险是模型兼容性问题：如果 DeepSeek V3.2 或 GLM-5 DSA 模型本身不支持 AllReduce 融合，启用后可能导致运行时错误或性能下降。2. 缺少单元测试：变更直接修改了核心配置逻辑，但没有看到针对这一特定变更的单元测试。3. 依赖现有测试覆盖：作者通过运行现有的 DSA 模型测试来验证，但测试可能没有专门覆盖 AllReduce 融合场景。
- 影响：影响范围有限但重要：1. 对用户：DeepSeek V3.2 和 GLM-5 DSA 模型的用户可能会看到分布式性能提升（如果 AllReduce 融合有效）。2. 对系统：仅影响使用这些特定模型架构的分布式部署场景。3. 对团队：这是一个针对特定模型优化的配置变更，维护简单，但需要确保后续的模型架构变更也考虑 AllReduce 融合支持。
- 风险标记：模型兼容性风险 , 缺少专门测试

# 关联脉络

- PR #22430 [Fix] Fix several bugs on DSA models: 同样涉及 DSA 模型修复，可能共享相似的测试环境和模型配置。
- PR #20089 feat: [1/2] [DeepEP] Fuse shared expert into MoE dispatch under EP: 涉及 DeepSeek 模型优化和融合技术，技术领域相关。
- PR #22425 [HiSparse]: Add HiSpares-DSA Model's nightly CI: 都涉及 DSA 模型测试，共享测试基础设施。