context-manager

🗜️ AI智能压缩长会话上下文

🥥10总安装量 2评分人数 1
100% 的用户推荐

OpenClaw官方生态的AI会话压缩工具,通过智能摘要重置长会话,解决上下文窗口耗尽问题,可节省70%+token消耗。

B

存在边界风险,建议在隔离环境中验证

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 无 eval/exec 动态代码执行,命令注入风险可控
  • ✅ 具备完善的自动备份机制,删除操作前强制备份原始会话
  • ⚠️ 使用 `--replace` 模式将永久删除原始 JSONL 文件,依赖备份恢复
  • ⚠️ 会话内容需通过 `openclaw agent` 发送至 AI 服务,存在数据外泄风险
  • ⚠️ 动态数组展开执行 grep 命令,虽无用户输入注入但仍需注意

使用说明

核心用法

context-manager 是专为 OpenClaw 平台设计的会话上下文管理工具,通过 Shell 脚本 compress.sh 提供完整的 CLI 操作界面。用户可通过 list 命令查看所有会话的 token 使用情况,,status 检查特定会话详情,,summarize 生成只读的 AI 摘要,以及 summarize --replace 执行完整的压缩流程(生成摘要→备份→重置→注入)。工具支持自定义压缩阈值(50-99%)、摘要深度(brief/balanced/comprehensive)和静默时段,实现精细化的会话生命周期管理。

显著优点

智能自摘要机制:区别于传统的 grep/正则提取,该工具利用 AI 自身理解能力生成结构化摘要,包含已完成任务、关键决策、当前状态和待办事项四个维度,信息保留质量显著高于机械压缩。

非破坏性操作设计:所有压缩操作前强制备份原始 JSONL 会话文件至 memory/compressed/,失败时可手动恢复;summarizesummarize --replace 分离设计,允许用户先验证摘要质量再执行重置。

深度平台集成:直接调用 openclaw CLI 和会话文件系统,使用官方 JSONL 删除机制重置会话,而非不可靠的 /reset 消息注入,技术实现稳健可靠。

量化收益明确:实测可将 70k token 会话压缩至 16k(77% 缩减),有效延缓上下文窗口耗尽,维持长会话的响应速度和连贯性。

潜在缺点与局限性

平台强绑定:完全依赖 OpenClaw 生态,无法迁移至 Claude API 直连或其他 AI 平台;若 openclaw CLI 行为变更,工具可能失效。

数据隐私权衡:会话内容必须通过 openclaw agent 发送至 AI 服务生成摘要,敏感对话存在云端处理风险,尽管这是功能设计的必要代价。

恢复操作门槛:虽提供备份文件,但恢复需手动执行 cp 命令,缺乏一键 restore 子命令,紧急回滚体验欠佳。

Shell 环境依赖:需要 Bash、jq、标准 Unix 工具链,Windows 原生环境支持有限。

适合的目标群体

  • 高频使用 OpenClaw 进行长周期项目开发、深度研究或复杂任务拆解的重度用户
  • 遭遇 100k token 上下文上限瓶颈,需要维持会话连续性但不愿丢失历史脉络的场景
  • 对 AI 辅助摘要质量有信任基础,能接受云端处理会话内容的用户
  • 具备基础 CLI 操作能力,能阅读 Shell 脚本进行故障排查的技术用户

使用风险

操作不可逆风险--replace 模式删除原始 JSONL 后,若备份文件损坏或丢失,会话历史将永久丢失;建议关键会话先手动额外备份。

摘要质量波动:AI 生成的摘要可能遗漏边缘但关键的上下文细节(如特定代码片段、精确数值),压缩后需验证核心信息完整性。

依赖服务稳定性openclaw 网关或 AI 服务异常时,压缩流程可能中断在备份后、注入前的中间状态,需人工介入恢复。

并发操作冲突:多终端同时操作同一会话可能导致备份覆盖或注入混乱,建议单会话单操作窗口。

context-manager 内容

手动下载zip · 10.9 kB
compress.shtext/x-shellscript
请选择文件