核心用法
Tiered Memory System 采用仿生学设计,模拟人类记忆的三层架构:Hot Memory(5KB,核心身份与活跃上下文)、Warm Memory(50KB,30天内蒸馏事实)、Cold Memory(云端 Turso 数据库,十年存档)。系统通过 LLM 驱动的树形索引(Tree Index)实现 O(log n) 的高效检索,而非传统的向量相似度搜索。
使用流程包含四个关键环节:首先通过 distill 命令将原始对话压缩为结构化事实;接着使用 store 命令按分类路径存储;随后利用 retrieve 进行基于 LLM 推理的语义检索;最后通过 consolidate 执行定期维护(快速/每日/每月模式)。v2.1.0 新增元数据自动提取功能,可识别并保留 URL、命令行和文件路径,确保技术细节在蒸馏过程中不丢失。
显著优点
恒定上下文开销:无论运行多久,每次会话仅需加载 8-15KB 上下文(Hot + Tree + 检索结果),相比传统扁平化 MEMORY.md 的线性增长,极大节省 Token 消耗。
可解释的树形检索:基于 PageIndex 的树形结构支持推理式搜索,可追踪 "Projects → EvoClaw → BSC" 的完整路径,准确率可达 98%,远超向量相似度方案的 70-80%。
云优先架构:支持 Turso 云端冷存储,设备丢失后可在 2 分钟内完成全量恢复,实现真正的跨设备同步。
智能记忆衰减:基于重要性 × 时间衰减 × 访问频率的评分算法,自动将低价值记忆归档或删除,实现"战略性遗忘"。
潜在缺点与局限
基础设施依赖:Cold Storage 功能强制依赖外部 Turso 数据库(或自建 SQLite),需要用户自行管理数据库凭证和网络连接;LLM 检索模式需配置外部端点(Claude/GPT 等),增加部署复杂度。
安全风险:当前版本存在 SQL 注入漏洞(cold_query 函数使用字符串拼接),在处理不可信查询输入时可能导致数据泄露。
来源可信度:作为 T3 级社区项目(GitHub: clawinfra/evoclaw),虽代码结构良好,但缺乏企业级安全审计,不建议用于处理高度敏感数据的生产环境。
维护开销:需要配置定时任务(cron)执行日常/月度整合,树形索引需要人工干预修剪(max 50 节点限制)。
适合的目标群体
AI 代理开发者:特别是基于 EvoClaw/OpenClaw 框架构建长期记忆能力的开发者;需要实现数月/数年长期记忆的对话系统;对上下文成本控制敏感的 LLM 应用。
知识管理场景:个人知识库构建、研究笔记管理、项目决策追踪等需要结构化归档的场景。
技术爱好者:理解树形索引、分层存储原理,愿意配置数据库和 LLM 端点的进阶用户。
使用风险
数据安全风险:除已识别的 SQL 注入外,云端同步功能将核心记忆上传至 Turso,虽数据加密但仍存在第三方服务风险;建议对敏感信息(密码、API 密钥)进行额外加密或避免存储。
依赖稳定性:系统依赖 libsql_client 连接 Turso,以及外部 LLM 端点可用性,网络中断或服务商故障会影响 Cold 存储检索和语义搜索功能。
数据一致性:自动蒸馏可能丢失语境细节,尽管 v2.1.0 改进了 URL 保留,但复杂技术讨论仍存在信息压缩损失;建议对关键决策人工验证 validate 命令的输出。
迁移成本:一旦积累大量 Warm/Cold 记忆,更换存储方案或清理历史数据需要执行完整的月度整合流程。