核心用法
memory-scan 是专为 OpenClaw Agent 生态设计的内存安全扫描器,主要功能是对 MEMORY.md、每日日志(memory/*.md)及工作区配置文件进行深度安全检测。用户可通过命令行灵活调用:默认本地模式使用正则规则快速扫描;添加 --allow-remote 参数可启用脱敏后的 LLM 深度分析;支持指定文件扫描、JSON 输出、静默模式等选项。配套提供定时任务脚本(schedule-scan.sh)实现每日自动审计,以及隔离工具(quarantine.py)对威胁进行备份+红码处理。
显著优点
1. 双层检测机制:本地正则匹配零成本、零泄露风险;可选 LLM 分析(GPT-4o-mini/Claude)实现深度语义理解,且内容脱敏后传输。
2. 完善的威胁分级:SAFE/LOW/MEDIUM/HIGH/CRITICAL 五级体系,配合明确的处置建议,降低安全运营门槛。
3. 生态深度集成:与 safe-install 每日审计、input-guard 外部防护、molthreats 社区威胁情报形成互补,构建纵深防御。
4. 操作安全设计:隔离前强制备份、远程分析默认关闭、API 密钥按需申请,体现"最小权限+用户知情"原则。
潜在缺点与局限性
- 依赖 OpenClaw 环境:仅扫描 ~/.openclaw/workspace 目录,无法通用化到其他 AI 框架。
- LLM 分析有成本:远程模式需 OpenAI/Anthropic API 密钥,高频扫描产生调用费用。
- T3 来源信任门槛:作者为 GitHub 个人账号(dgriffin831),虽代码审计通过,但企业用户可能偏好官方背书。
- 检测盲区:纯文本正则+LLM 语义分析,对加密混淆、图片隐写等高级威胁无覆盖。
适合的目标群体
- OpenClaw 重度用户,尤其是多 Agent 协作、长期记忆积累场景
- 对 AI 安全有基础认知的开发者、安全工程师
- 需要合规审计日志的企业团队
- 个人用户希望低成本(本地模式免费)保障 AI 交互安全
使用风险
- API 密钥管理:远程模式需妥善保管 OPENAI_API_KEY/ANTHROPIC_API_KEY,避免硬编码泄露。
- 误报与漏报:MEDIUM 级建议人工复核,CRITICAL 级可能因正则过于敏感产生误触发。
- 定时任务权限:schedule-scan.sh 创建 cron 需写入用户 crontab,多用户环境注意权限隔离。
- 备份存储增长:频繁隔离操作会在 .memory-scan/quarantine/ 累积备份文件,需定期清理。