核心用法
qmd 是一款本地优先的文档搜索与索引 CLI 工具,专为开发者知识管理设计。用户通过 qmd collection add 添加待索引目录(支持 glob 掩码如 **/*.md),执行 qmd update 构建索引后,即可使用三种检索模式::qmd search 进行传统 BM25 文本搜索,,qmd vsearch 启用语义向量搜索,,qmd query 则融合两者实现混合检索。文档获取支持行号定位与长度控制,如 qmd get docs/path.md:10 -l 40。工具同时提供 MCP(Model Context Protocol)模式,可无缝接入 AI 助手工作流。
显著优点
本地隐私优先:所有嵌入生成与重排序均通过本地 Ollama 完成,无需上传数据至云端,彻底解决敏感文档的隐私顾虑。检索精度高:BM25 与向量检索的混合架构兼顾关键词匹配与语义理解,rerank 机制进一步提升结果相关性。生态整合:MCP 模式使其成为 AI 编程助手的上下文增强器,让大模型直接访问个人知识库。轻量易用:单一二进制文件,索引自动缓存于 ~/.cache/qmd,配置通过环境变量即可完成。
潜在缺点与局限性
硬件依赖:向量搜索依赖本地 Ollama 服务,需额外部署 embedding 模型,对低配设备有一定资源压力。索引维护成本:文档变更后需手动执行 qmd update,无实时监听机制,大规模目录的增量更新效率待验证。格式支持有限:当前主要针对 Markdown 优化,PDF、Office 等富格式文档支持不足。跨设备同步:索引与缓存绑定单机,多设备场景下需自行解决知识库同步问题。
适合的目标群体
技术文档重度使用者、个人知识管理(PKM)实践者、需要为 AI 助手提供私有上下文的开发者、以及注重数据隐私的企业知识库管理员。特别适合已部署 Ollama 本地 AI 栈的技术用户。
使用风险
性能风险:首次索引大规模代码库可能耗时较长;向量检索在高并发场景下响应延迟需关注。依赖项风险:Ollama 服务异常将直接导致语义搜索失效,需保障本地模型服务的稳定性。数据安全:虽为本地处理,但索引文件以明文形式存储于缓存目录,共享设备需注意目录权限配置。