#20905 [NPU][ModelSlim] adapt w2 quant layer for Minimax2.5
作者 shadowxz109 · 合并时间 2026-03-24 20:57
为 Minimax2.5 模型适配 w2 量化层后缀,重构 MoE 量化方案检测逻辑。
建议对量化模块或 MoE 模型感兴趣的工程师精读此 PR,关注 get_moe_scheme 函数的重构设计,学习如何灵活处理多种量化配置后缀,同时注意风险分析中的边缘情况。
SGLang is a high-performance serving framework for large language models and multimodal models.
作者 shadowxz109 · 合并时间 2026-03-24 20:57
为 Minimax2.5 模型适配 w2 量化层后缀,重构 MoE 量化方案检测逻辑。
建议对量化模块或 MoE 模型感兴趣的工程师精读此 PR,关注 get_moe_scheme 函数的重构设计,学习如何灵活处理多种量化配置后缀,同时注意风险分析中的边缘情况。
作者 avjves · 合并时间 2026-03-24 20:17
修复FLUX.1扩散模型的图像序列长度计算错误,消除块状图像并支持2048x2048分辨率生成。
建议开发者阅读此PR,了解扩散模型中图像序列长度计算的关键细节,特别是patchification处理的正确方式。对于扩散模型管道的维护者,此变更值得关注以确保模型正确性,并可参考讨论中提到的与diffusers的差异进行进一步优化。
作者 mmangkad · 合并时间 2026-03-24 17:25
修复 gpqa 评估因错误使用 --dataset-path 导致的文件未找到错误。
该 PR 值得快速浏览以了解参数作用域和 bug 修复的简单实现,但设计决策直白,无需深入分析。建议关注点:是否应在后续 PR 中恢复 gpqa 的自定义路径能力,或添加如 --gpqa-dataset-path 的专用参数,以避免功能回归。
作者 ispobock · 合并时间 2026-03-24 17:15
更新 CODEOWNERS 文件,为线性注意力模块添加新代码所有者。
这是一个基础设施变更,不值得深入技术精读。对于技术管理者,可以快速浏览以了解代码所有权变更;对于工程师,除非负责线性注意力模块,否则无需特别关注。
作者 1am9trash · 合并时间 2026-03-24 17:01
为AMD MI300/MI355 GPU优化稀疏注意力内核,提升性能。
建议精读此PR以学习AMD GPU内核优化策略,特别是条件内存分配和网格划分设计。关注安全漏洞修复的实现细节,以及性能基准测试方法。
作者 merrymercy · 合并时间 2026-03-24 15:04
将 GitHub Actions cron 调度从每12小时改为每6小时,加快 CI 频率。
此 PR 变更简单,无需精读。关注点在于理解 CI 调度策略的调整,可作为配置变更的参考示例。
作者 Shunkangz · 合并时间 2026-03-24 14:40
启用 Qwen3 30B 测试并修正 MoE 模型的专家并行性 all-reduce 逻辑。
建议开发者仔细阅读 `qwen3_moe.py` 中的 all-reduce 条件,并评估是否需要后续修正以独立于张量并行性 fusion。该 PR 的测试启用策略值得参考,可用于理解 CI 集成和测试维护。
作者 BBuf · 合并时间 2026-03-24 14:39
修复扩散模型中 torch.zeroes 到 torch.zeros 的 typo,避免潜在错误。
该 PR 变更简单,不值得精读,但可作为代码审查中注意 typo 的示例。对于新贡献者,可参考此类修复了解代码规范。
参与讨论