重构DefaultMoERunner的forward方法,简化MoE模块代码结构。
推荐精读此PR,关注设计决策如模块化拆分、流同步处理和分派策略,这些为后续MoE优化奠定基础。
A high-throughput and memory-efficient inference and serving engine for LLMs
重构DefaultMoERunner的forward方法,简化MoE模块代码结构。
推荐精读此PR,关注设计决策如模块化拆分、流同步处理和分派策略,这些为后续MoE优化奠定基础。
修复ROCm平台MoRI与AITER后端FP8量化分发不兼容的bug。
建议精读此PR,了解MoE架构中FP8量化处理的设计权衡,特别是如何通过条件化属性和异常移除实现后端兼容。关注AiterExperts.expects_unquantized_inputs的条件逻辑和MoriPrepareAndFinalize.prepare中的量化跳过机制。
扩展性能指标模块对 22 种量化方法的支持,修复量化模型 MFU 报告失败问题。
建议技术管理者和工程师精读此 PR,以了解如何处理量化配置解析的扩展性问题。重点关注 `_QUANT_WEIGHT_BYTE_SIZE` 字典的设计决策,它提供了一种集中管理量化方法属性的方式。此外,review 中的测试优化建议值得关注,可作为代码重构的参考。
原始 PR · 作者 TheEpicDolphin · 合并时间 2026-03-19 06:59
为推测解码拒绝采样器添加贪婪采样支持,优化温度为零时的性能。
建议工程团队精读此PR,特别关注`_gather_draft_logits_and_target_argmax_kernel`和`_probabilistic_rejection_kernel`的设计,以及review中讨论的正确性问题。设计决策如本地argmax计算和贪婪路径隔离值得学习。
添加gpt-oss优化的Router GEMM kernel,提升低批次大小下的输出token吞吐量。
建议技术管理者和工程师精读此PR,重点关注以下设计决策: - GateLinear中多层GEMM调度的实现,如何平衡性能和通用性。 - 新kernel的错误处理和硬件兼容性检查,使用TORCH_CHECK替代assert。 - 与LoRA集成的扩展,通过GateLinearWithLoRA支持自定义路由。 这些决策展示了在优化性能时的权衡和最佳实践。
修复 GLM-4.7 工具调用解析正则表达式,规范化内容为 None 以符合 OpenAI API。
对于处理工具调用或 GLM 模型的工程师,建议精读正则表达式修改和内容规范化逻辑,以理解解析细节和 API 兼容性设计。同时,关注测试用例以掌握边界场景。
为 Qwen3 模型输入投影启用双流执行,提升 GPU 并行度和推理性能。
建议技术管理者审查自定义操作设计和流同步机制,确保无死锁风险。工程师可精读 maybe_execute_in_parallel 函数学习多流优化模式,并关注 issue #37372 跟踪原生多流支持。该 PR 值得关注其性能提升与代码设计的权衡。
原始 PR · 作者 ekagra-ranjan · 合并时间 2026-03-18 05:04
添加 Cohere ASR 语音转录模型支持,扩展 vLLM 多模态能力。
建议技术管理者和工程师精读此 PR,重点关注: 1. **模型实现**:`cohere_asr.py` 中的编码器-解码器架构设计,特别是与变长编码器集成的部分。 2. **设计决策**:`skip_decoder_start_token` 标志的引入和传播方式,体现了非侵入式扩展模式,值得借鉴。 3. **Review 洞察**:讨论中的设备处理和代码共享权衡,可帮助避免类似硬编码陷阱。 4. **关联变更**:结合 PR 31058 等历史变长编码器改进,理解整体架构演进。
参与讨论