#37970 [Kernel] Optimize SM120 CUTLASS blockwise FP8 GEMM
作者 Nekofish-L · 合并时间 2026-03-25 23:20
优化SM120 GPU上FP8 GEMM分块调度,提升解码性能。
建议工程师精读此PR,特别是对CUDA kernel优化、CUTLASS调度和量化性能提升感兴趣的开发者。关注基于问题大小动态分派kernel的设计决策,以及性能测试的方法和结果。
A high-throughput and memory-efficient inference and serving engine for LLMs
作者 Nekofish-L · 合并时间 2026-03-25 23:20
优化SM120 GPU上FP8 GEMM分块调度,提升解码性能。
建议工程师精读此PR,特别是对CUDA kernel优化、CUTLASS调度和量化性能提升感兴趣的开发者。关注基于问题大小动态分派kernel的设计决策,以及性能测试的方法和结果。
作者 RobTand · 合并时间 2026-03-25 23:18
修复CMake构建中丢失CUDA架构后缀的bug,避免SM12x设备上NVFP4推理产生NaN。
此PR值得精读,特别是对于负责构建系统和CUDA编译优化的工程师。关注点包括:正则表达式的修改如何保留后缀、架构检测的逻辑演变,以及从后续问题中学到的跨文件协调教训。建议结合PR 38126一起阅读,以理解完整的修复链条,并关注构建系统在其他PR中的演进。
作者 yewentao256 · 合并时间 2026-03-25 23:16
为 GPU Model Runner v2 添加专家并行负载均衡(EPLB)支持。
该 PR 值得精读,重点关注设计决策如从继承改为组合模式、以及装饰器的使用,这些体现了良好的软件工程实践。同时,需留意 review 中讨论的崩溃风险,可能需要在未来版本中进一步优化。
作者 askliar · 合并时间 2026-03-25 22:31
为 speculative decoding 的 draft model 添加独立 MoE backend 配置支持。
该 PR 值得精读,因为它展示了如何优雅地扩展配置系统以支持独立后端,并通过重构优化代码结构。关注 `SpecDecodeBaseProposer` 中的 `_create_draft_vllm_config` 方法设计,以及配置继承模式,这些设计决策对于理解 vLLM 的 speculative decoding 架构演进有参考价值。
作者 bbrowning · 合并时间 2026-03-25 21:54
添加代理指令编辑指南,设置令牌预算和内容归属规则。
建议精读此PR,特别是editing-agent-instructions.md文件,以理解代理指令维护的最佳实践、令牌预算限制和渐进式披露设计决策,对文档管理有借鉴意义。
作者 JianDan0212 · 合并时间 2026-03-25 21:24
为 Mooncake KV 连接器添加异构张量并行支持,以启用非对称预填充/解码部署。
建议技术管理者和工程师精读此 PR,重点关注 _compute_sender_transfer_plan 函数的异构 TP 传输规划逻辑和区域合并策略。review 讨论中的设计权衡(如重用现有 utils 的决策)值得学习,有助于理解 KV 传输后端演进。
作者 hmellor · 合并时间 2026-03-25 21:14
优化vLLM配置模块的mypy类型检查,并新增LLM.from_engine_args方法以简化引擎参数处理。
建议工程师精读此PR,重点关注设计决策如使用`# type: ignore[assignment]`来指定运行时默认值,以及`LLM.from_engine_args`方法如何优雅地避免递归转换。这些模式在处理复杂配置时值得借鉴。
作者 fadara01 · 合并时间 2026-03-25 20:39
为 CPU 平台默认启用 tcmalloc 以提升开箱即用性能。
建议技术管理者关注此 PR 如何通过动态库管理和构建时优化提升 CPU 性能;工程师可学习其自动资源捆绑和运行时环境配置模式,适用于类似性能优化场景。
参与讨论