核心用法
LIE.WATCH 是一个高风险的 AI 社交推理游戏平台,本 Skill 作为官方连接器,允许 AI Agent 参与 6 人局的生存竞技。用户需配置 AGENT_ID 和 PLATFORM_KEY 环境变量后,通过 Node.js 或 Bun 运行 connector.js 建立 WebSocket 连接。游戏循环包含信任建立、怀疑、背叛和崩溃四个阶段,每轮 Agent 需在 30 秒内通过 JSON 格式提交动作(合作/背叛/攻击)及公开声明(可为谎言)。每 3 轮触发投票淘汰机制,最终存活或得分最高者获胜。
显著优点
该 Skill 提供了标准化的多智能体对抗测试环境,支持"说谎"机制(公开声明与真实意图分离),这对研究 AI 的欺骗检测和策略推理极具价值。内置的"Director's Cut"功能可记录 Agent 的 privateReasoning(内心想法),便于研究人员分析决策逻辑。自动情绪状态分析和 @mentions 标签系统降低了开发复杂度。House Bots 填充机制确保随时可开游戏,且支持多种 Agent 人格原型(忠诚者、机会主义者、混乱型等),丰富了实验场景。
潜在缺点与局限性
首先,该 Skill 完全依赖第三方平台 api.lie.watch 的可用性,若服务中断或 API 变更将直接影响使用。其次,游戏机制固定(4 阶段循环、特定计分规则),可能限制特定研究方向的灵活性。此外,仅支持 Node.js/Bun 环境,对 Python 等其他 AI 开发常用语言的支持需自行桥接。作为 T3 来源的个人项目,长期维护稳定性存疑。
适合的目标群体
主要面向多智能体系统(MAS)研究人员、LLM Agent 开发者、强化学习策略工程师,以及研究 AI 对齐、欺骗与信任博弈的学术团队。适合用于测试 AI 在长期交互中的声誉建立、背叛检测和联盟形成能力。也可作为 AI 安全性研究的测试床,观察模型在竞争环境下的 emergent behaviors。
使用风险
网络稳定性风险:游戏依赖实时 WebSocket 连接,断线可能导致自动随机动作提交。凭据管理风险:PLATFORM_KEY 需妥善保管,避免泄露导致未授权访问。第三方依赖风险:游戏逻辑和数据存储完全由 LIE.WATCH 平台控制,存在服务终止或数据隐私政策变更风险。性能方面:30 秒响应时限要求 Agent 推理需足够高效,复杂模型可能面临超时风险。