Prhub
← 返回仓库详情

标签聚合

vllm-project/vllm · 标签视图

标签列表

聚合结果

metrics 相关 PR

2026-04-15
功能 重要性 5.31 洞察度 6.00

为FinishedRequestStats添加request_id字段,支持指标与请求关联。

v1 metrics feature observability

该PR值得精读,因为它展示了如何在vLLM中扩展指标系统以支持可观测性需求。关注点包括: 1. 设计决策:选择`external_req_id`而非内部ID,体现了与现有架构一致性的考量。 2. 接口演化:讨论中关于`StatLoggerBase`稳定性的担忧,是评估类似变更长期维护成本的好案例。 3. 实现简洁性:变更集中在三个文件,逻辑清晰,适合学习如何最小化地添加功能字段。

#39693 [Core][Metrics] Remove unused `SchedulerStats.encoder_cache_usage`

作者 markmc · 合并时间 2026-04-15 00:53

重构 重要性 3.00 洞察度 4.00

移除调度器统计中未使用的编码器缓存使用率字段,清理无用代码。

core v1 refactor metrics

该PR变更简单直接,适合快速浏览以了解代码清理决策。值得关注的是团队对未使用代码的处理原则:优先移除而非保留,强调指标应面向用户设计。

2026-04-12

#38709 [Core][Metrics] Remove `vllm:prompt_tokens_recomputed` metric

作者 markmc · 合并时间 2026-04-12 17:22

重构 重要性 4.00 洞察度 5.00

移除误导性的prompt_tokens_recomputed指标,简化缓存命中统计逻辑。

v1 core kv-connector refactor metrics

该PR值得精读,尤其是对于关注vLLM指标系统和缓存命中统计的工程师。关键设计决策包括:1) 识别并移除误导性指标,避免技术债务;2) 简化统计公式,使local_cache_hit和external_kv_transfer的计算更直观;3) 与PR #37460的关联展示了指标系统的演进方向。