qmd

🔍 本地隐私优先的智能文档检索

🥥271总安装量 56评分人数 83
100% 的用户推荐

Shopify CEO 开源的本地文档搜索引擎,支持 BM25+向量混合检索,数据完全本地处理保障隐私。

A

基本安全,请在特定环境下使用

  • 来自可信来源(Github / Microsoft / 官方仓库)
  • ✅ 来源可信度 T1:作者为 Shopify 联合创始人 Tobias Lütke,GitHub 13K+ Stars 开源项目
  • ✅ 无恶意代码检出:Skill 仅含描述性文档,无动态代码执行或远程脚本加载
  • ✅ 本地优先架构:所有嵌入与重排序通过本地 Ollama 完成,无数据外泄风险
  • ⚠️ 文件系统访问:需索引用户指定目录,建议仅添加可信路径
  • ⚠️ 缓存目录权限:索引数据存储于 `~/.cache/qmd`,多用户设备需关注访问控制

使用说明

核心用法

qmd 是一款本地优先的文档搜索与索引 CLI 工具,专为开发者知识管理设计。用户通过 qmd collection add 添加待索引目录(支持 glob 掩码如 **/*.md),执行 qmd update 构建索引后,即可使用三种检索模式::qmd search 进行传统 BM25 文本搜索,,qmd vsearch 启用语义向量搜索,,qmd query 则融合两者实现混合检索。文档获取支持行号定位与长度控制,如 qmd get docs/path.md:10 -l 40。工具同时提供 MCP(Model Context Protocol)模式,可无缝接入 AI 助手工作流。

显著优点

本地隐私优先:所有嵌入生成与重排序均通过本地 Ollama 完成,无需上传数据至云端,彻底解决敏感文档的隐私顾虑。检索精度高:BM25 与向量检索的混合架构兼顾关键词匹配与语义理解,rerank 机制进一步提升结果相关性。生态整合:MCP 模式使其成为 AI 编程助手的上下文增强器,让大模型直接访问个人知识库。轻量易用:单一二进制文件,索引自动缓存于 ~/.cache/qmd,配置通过环境变量即可完成。

潜在缺点与局限性

硬件依赖:向量搜索依赖本地 Ollama 服务,需额外部署 embedding 模型,对低配设备有一定资源压力。索引维护成本:文档变更后需手动执行 qmd update,无实时监听机制,大规模目录的增量更新效率待验证。格式支持有限:当前主要针对 Markdown 优化,PDF、Office 等富格式文档支持不足。跨设备同步:索引与缓存绑定单机,多设备场景下需自行解决知识库同步问题。

适合的目标群体

技术文档重度使用者、个人知识管理(PKM)实践者、需要为 AI 助手提供私有上下文的开发者、以及注重数据隐私的企业知识库管理员。特别适合已部署 Ollama 本地 AI 栈的技术用户。

使用风险

性能风险:首次索引大规模代码库可能耗时较长;向量检索在高并发场景下响应延迟需关注。依赖项风险:Ollama 服务异常将直接导致语义搜索失效,需保障本地模型服务的稳定性。数据安全:虽为本地处理,但索引文件以明文形式存储于缓存目录,共享设备需注意目录权限配置。

qmd 内容

手动下载zip · 912 B
SKILL.mdtext/markdown
请选择文件