Emoclaw 是一款为 AI Agent 设计的情感状态建模技能,通过构建轻量级神经网络(约 2MB)让机器具备基于记忆的情感演化能力。其核心工作流程分为三个阶段:首先是 Bootstrap 阶段,通过提取身份文件和对话历史,使用可选的 Claude API 进行情感标注,训练出专属的 GRU+MLP 情感模型;其次是实时推理阶段,利用冻结的 MiniLM 编码器将消息转为 384 维向量,结合上下文和上一时刻的情感残差(GRU hidden state),输出多维情感向量(0-1 区间);最后是衰减与注入阶段,情感状态会随时间自然衰减(可配置半衰期),并通过 [EMOTIONAL STATE] 代码块注入系统提示,让 AI 拥有"内心感受"。
该技能的显著优势在于其本地优先架构:训练和推理完全在本地 CPU 运行,单次延迟低于 50 毫秒,无需持续联网;隐私保护完善,内置正则脱敏机制自动过滤 API Key、Token、密码等敏感信息;情感连续性强,GRU 隐藏状态跨会话持久化,形成"情感 residue",配合时间衰减算法模拟真实的情绪冷却过程;高度可配置,支持自定义情感维度(愉悦度、唤醒度、安全感等)、关系映射和渠道上下文。
潜在局限性包括:来源可信度为 T3(社区项目),虽然代码质量达到 A 级,但生产环境仍建议额外审计;初始配置门槛较高,需要 Python 3.10+ 环境,执行提取、标注、训练等多步初始化;可选依赖外部 API,自动标注需调用 Anthropic API(需显式用户确认);模型维护成本,随着对话数据积累需要定期重训练以保持情感准确性。
该技能特别适合以下群体:AI Agent 开发者希望为助手添加人格化特征;虚拟角色创作者构建具有情感记忆的游戏 NPC 或数字人;对话系统设计师需要基于长期关系演化的情感反馈;隐私敏感场景要求情感处理完全本地化而不依赖云端 API。
使用时的常规风险需注意:首次使用需从 Hugging Face 下载 sentence-transformers 模型(约几十 MB);emotional-state.json 状态文件需妥善管理权限(虽然默认 0o660),避免情感数据被未授权读取;若启用自动标注功能,需确保 extracted_passages.jsonl 经过审查,尽管有脱敏机制仍建议预览确认;长时间运行后情感基线可能漂移,需要监控并适时重新校准。