# PR #37998 完整报告

- 仓库：`vllm-project/vllm`
- 标题：docs: fix broken offline inference paths in documentation
- 合并时间：2026-03-25 01:35
- 原文链接：http://prhub.com.cn/vllm-project/vllm/pull/37998

---

# 执行摘要
本 PR 修复了 vLLM 文档中 pooling 模型离线推理示例的路径错误，通过更新两个 Markdown 文件的相对路径和目录结构，确保用户能正确访问代码示例。这是一个小范围的文档维护工作，风险极低，但强调了对文档细节的审慎处理。

# 功能与动机
手动审计发现 `docs/models/pooling_models/` 目录下的 classify.md 和 embed.md 文件使用错误相对路径（如 `../../` 应改为 `../../../`）和目录顺序（`offline_inference/basic/` 应改为 `basic/offline_inference/`）。修复旨在消除 broken links，提升文档可用性，引用 PR body 中表述："files in docs/models/pooling_models/ were using incorrect relative paths" 和 "referenced a directory structure that did not match the actual repository layout"。

# 实现拆解
更改涉及两个文件，具体路径更正如下：
- `docs/models/pooling_models/classify.md`：将示例链接从 `[examples/offline_inference/basic/classify.py](../../../examples/basic/offline_inference/classify.py)` 更新为 `[examples/basic/offline_inference/classify.py](../../../examples/basic/offline_inference/classify.py)`。
- `docs/models/pooling_models/embed.md`：类似地更新 embed.py 路径，从 `[examples/offline_inference/basic/embed.py](../../../examples/basic/offline_inference/embed.py)` 到 `[examples/basic/offline_inference/embed.py](../../../examples/basic/offline_inference/embed.py)`。
通过手动验证（如使用 `ls` 命令）确保新路径正确。

# 评论区精华
review 讨论聚焦于路径正确性和范围控制：
- **gemini-code-assist[bot]**指出初始更改导致路径重复 "basic" 目录，建议修正：
 > "This path seems incorrect. It appears a broad search-and-replace has resulted in a duplicated `basic` directory segment."
- **DarkLight1337**提及其他文件如 `docs/cli/README.md` 可能也有类似问题，但作者 **vineetatiwari27**回应：
 > "I've refined this PR and reduced the scope to the 2 files where the broken paths were manually verified."
最终采纳建议并修正，体现了协作中的验证精神。

# 风险与影响
- **风险**：技术风险较低，仅文档变更。潜在风险是其他文件中可能仍有未修复的路径错误（如 `docs/cli/README.md`），如果验证不充分可能导致 broken links 持续存在。
- **影响**：影响范围有限，仅提升 pooling 模型文档的用户阅读体验，确保示例代码可访问。无系统性能、安全或兼容性影响。

# 关联脉络
- 与近期 PR #37956（"[Deprecate] Deprecate pooling multi task support."）相关，因为都修改了 `docs/models/pooling_models/` 目录，显示该模块的持续维护。
- 与 #37991（"[Docs] Fix build"）同属文档修复工作，体现仓库对文档质量的重视和团队协作模式。这些 PR 共同揭示 vLLM 项目在快速演进中，文档同步更新成为重要环节。