guava-memory

🧠 智能经验记忆与技能进化系统

🥥48总安装量 12评分人数 10
100% 的用户推荐

OpenClaw 生态的 episodic memory 系统,基于 Q-learning 评分记录任务经验,自动沉淀成功模式为可复用技能,让 AI 助手实现经验积累与持续优化。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码安全规范:无 eval/exec/system 等危险函数,无动态代码加载或执行
  • ✅ 数据完全本地:无网络通信,无数据上传,仅读取本地 Markdown 文件
  • ✅ 依赖纯净可控:唯一依赖为标准 JSON 处理工具 jq,无第三方库或远程脚本
  • ⚠️ 来源可信度:T3 级个人开发者来源,建议生产环境部署前进行代码审查
  • ⚠️ 环境依赖:需预装 jq 工具,缺失时将导致搜索功能不可用

使用说明

GuavaMemory 是专为 OpenClaw 设计的结构化情景记忆系统,通过仿照人类 episodic memory 机制,为 AI Agent 提供长期经验积累与技能进化能力。该系统以 Markdown 文件作为存储介质,结合 Q-learning 算法的评分机制,让 AI 助手能够"记住"什么方法有效、什么路径失败,并在类似任务中自动调用最优策略。

核心用法围绕"记录-评分-沉淀"三部曲展开。每次任务完成后,系统会生成包含意图(Intent)、上下文(Context)、成功/失败模式(Success/Failure Pattern)及情感标记(feel)的 episode 文件,并计算 Q-value(效用值)。通过 memory_search 接口(兼容 Voyage AI),可在新任务开始时检索相关历史经验。当同一意图连续成功 3 次以上且 Q-value ≥ 0.85 时,系统会自动将经验提升为 memory/skills/ 下的标准化技能文档,实现从试错到最佳实践的转化。

显著优点包括:纯本地架构确保数据隐私,无需网络同步即可工作;Q-value 量化反馈机制提供了超越简单日志的数据驱动优化能力;与 OpenClaw 生态深度集成,支持语义搜索;反模式(anti-patterns)记录功能主动防止重复犯错;轻量级设计仅依赖标准工具 jq,无复杂环境配置。

潜在局限性不容忽视:作为个人开发者(T3)维护的项目,长期支持稳定性存疑;纯文本文件存储在超大规模记忆场景下可能面临检索性能瓶颈;缺乏内置的网络同步机制,无法实现多设备协作;需要用户手动维护目录结构和 index.json 索引,存在一定的使用门槛;此外,Q-value 的初始评分依赖人工设定,若评分标准不统一可能影响学习效果。

适合的目标群体主要是 OpenClaw 生态的进阶用户、需要构建长期记忆能力的 AI Agent 开发者,以及追求持续优化自动化工作流的技术团队。对于希望 AI 助手能从历史任务中"越用越聪明"的个人开发者而言,这是理想的记忆基建方案。

使用风险方面,尽管安全评级为 A 级,但用户仍需注意:定期备份 memory/ 目录以防数据丢失;由于来源为个人账号,建议在生产环境使用前进行代码审计;确保系统已预装 jq 工具,否则搜索脚本无法运行;虽然脚本无破坏性操作,但仍建议检查文件路径配置,避免误操作非目标目录。

guava-memory 内容

文件夹图标scripts文件夹
文件夹图标templates文件夹
手动下载zip · 3.6 kB
ep-search.shtext/x-shellscript
请选择文件