lieutenant

🛡️ AI Agent 安全盾牌与威胁检测

🥥45总安装量 17评分人数 18
100% 的用户推荐

AI Agent 安全检测工具,内置 65+ 威胁模式识别提示注入与越狱攻击,支持 A2A 通信审查和 Agent 身份验证。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 代码安全规范,无 eval/exec/system 等危险函数,无注入漏洞
  • ✅ 依赖版本锁定,无动态代码加载或远程代码执行风险
  • ✅ 无静默数据收集,API 密钥需用户主动配置,隐私保护透明
  • ⚠️ 功能依赖 TrustAgents API 和 OpenAI API,存在第三方服务可用性与数据出境风险
  • ⚠️ 来源为 GitHub 个人开发者(T3),需自行评估长期维护稳定性与信任度

使用说明

Lieutenant 是专为 AI Agent 生态打造的安全防护层,通过本地模式匹配与云端智能分析相结合的方式,为 A2A(Agent-to-Agent)通信提供全面的威胁检测能力。该工具内置 65 种以上针对提示注入、越狱攻击、数据泄露等十大类别的威胁模式,可有效识别"忽略先前指令"等直接攻击,以及通过语义变形隐藏的间接攻击。

在核心用法上,Lieutenant 提供三层防护机制:基础模式依赖本地正则与启发式规则进行快速扫描,适合离线环境或敏感数据处理;增强模式通过 TrustAgents API 接入众包威胁情报数据库,获取最新攻击特征;语义分析层则利用 OpenAI 模型理解上下文意图,捕获传统规则难以识别的隐喻式和角色扮演攻击。此外,工具支持对 A2A 协议中的 Agent Card 进行可信度验证,确保外部代理身份真实可靠。

显著优点包括全面的威胁覆盖能力,从直接的提示注入到复杂的社会工程学攻击均有对应检测策略;与 A2A Python SDK 的深度集成使其能作为中间件无缝嵌入现有代理工作流,提供实时拦截与审计日志;代码完全开源可审计,无黑箱操作。同时支持 JSON 输出和严格模式,便于企业级安全编排。

潜在局限主要体现在对外部服务的依赖上:TrustAgents API 和 OpenAI API 的使用不仅产生额外成本,还带来网络延迟和服务可用性风险。语义分析虽提升检出率,但可能引入大模型特有的幻觉误报。此外,作为个人开发者维护的开源项目(T3 来源),长期更新承诺和企业级 SLA 保障相对薄弱。

该工具最适合构建多代理系统的开发者、采用 A2A 协议的技术团队,以及需要为对话 AI 添加内容安全过滤的企业。对于处理敏感数据的金融、医疗领域 Agent,建议在隔离环境中使用本地扫描模式。

使用风险方面,用户需妥善保管 TRUSTAGENTS_API_KEY 和 OPENAI_API_KEY,避免在日志中硬编码;依赖外部 API 意味着扫描内容可能经过第三方服务器,极敏感数据建议脱敏后处理;严格模式下可能产生误拦截,影响业务连续性,建议初期采用监控模式调优阈值。

lieutenant 内容

文件夹图标scripts文件夹
手动下载zip · 7.1 kB
scan.pytext/plain
请选择文件