boof

🍑 本地隐私优先的文档智能分析

🥥71总安装量 17评分人数 20
100% 的用户推荐

基于本地ML的PDF智能处理工具,无需API即可实现文档转Markdown、RAG索引与token高效分析,保障数据隐私零泄露。

B

存在边界风险,建议在隔离环境中验证

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 纯本地处理架构,文档数据零上传,无云端泄露风险
  • ✅ 无危险代码执行,脚本禁用 eval/exec,参数传递安全
  • ✅ 权限申请合理,仅请求文件读写与执行必需权限
  • ⚠️ 依赖版本未锁定,marker-pdf 与 qmd 存在未来兼容性隐患
  • ⚠️ 首次运行需下载 2-4GB 模型文件,需确保存储空间与网络环境

使用说明

核心用法

Boof 是一套本地优先的文档处理工作流,专为解决大语言模型处理长文档时的上下文窗口限制而设计。其核心流程分为三步:Boof it(转换索引)、Query it(语义检索)、Analyze it(高效分析)。用户通过 boof.sh 脚本将 PDF 转换为 Markdown,利用本地 ML 模型 Marker 完成格式解析,再通过 QMD 构建语义索引。后续查询时,系统仅将相关文本块送入 LLM,而非完整文档,从而大幅降低 token 消耗并避免"中间丢失"问题。

该技能支持多种使用模式:针对特定问题的精准查询、整篇文档的分段摘要、多文档交叉对比分析,以及精确匹配与语义搜索的灵活切换。输出文件默认保存至 knowledge/boofed// 目录,支持自定义路径。

显著优点

隐私安全极致:所有处理均在本地完成,文档数据不上传任何云端服务,无需 API Key,对敏感资料处理场景极为友好。成本效益突出:通过 RAG 检索机制,仅将相关片段送入 LLM,显著降低 API 调用成本,特别适合处理大量长文档。离线可用:模型下载完成后即可完全离线运行,不受网络环境制约。批量处理能力:支持多文档统一索引与跨文档查询,提升科研、法律、金融等需要文献综述场景的效率。

潜在缺点与局限性

首次部署成本:需下载 2-4GB 的 ML 模型文件,对磁盘空间和初次等待时间有要求。依赖管理松散:marker-pdf 和 qmd 均未锁定具体版本,存在未来兼容性风险。技术门槛:需要一定的命令行操作能力,环境配置涉及 Python 虚拟环境与 Bun 工具链。功能边界:纯本地架构意味着无法享受云端模型的持续更新,也不支持多人在线协作。

适合的目标群体

  • 科研人员与学术工作者:需要批量处理论文、提取关键发现、进行文献综述
  • 法律与合规从业者:处理敏感合同、法规文件,对数据本地化有硬性要求
  • 企业知识管理:构建内部文档库,实现私有化部署的智能检索
  • 隐私敏感型用户:不愿将商业机密或个人文档上传至第三方服务
  • 离线环境工作者:网络受限场景下的文档分析需求

使用风险

存储空间:需预留 10GB 以上磁盘空间用于模型与索引文件。依赖可用性:若 marker-pdf 或 qmd 未来版本不兼容,可能需要手动干预修复。性能瓶颈:大型 PDF 的本地转换速度取决于硬件配置,复杂文档处理可能耗时较长。学习曲线:RAG 查询语法与常规对话交互有差异,需要适应期。

boof 内容

文件夹图标references文件夹
文件夹图标scripts文件夹
手动下载zip · 6.3 kB
advanced-usage.mdtext/markdown
请选择文件