input-guard

🛡️ AI Agent的提示注入防火墙

🥥16总安装量 4评分人数 3
100% 的用户推荐

纯Python实现的AI提示注入防御工具,16类攻击检测+多语言支持,零依赖核心保障Agent处理外部数据前的安全屏障。

A

基本安全,请在特定环境下使用

  • 来自可信组织或认证账号,需要结合权限范围判断
  • ✅ 纯Python标准库实现,核心功能零外部依赖,供应链攻击面极小
  • ✅ 被动式扫描架构,不执行任何外部命令或系统操作,无代码注入风险
  • ✅ 所有网络连接均需用户显式配置API key,默认状态下完全离线运行
  • ⚠️ LLM扫描模式会将待检测文本发送至OpenAI/Anthropic第三方API,需用户知情同意
  • ⚠️ 可选MoltThreats社区报告功能需配置API key,存在数据出境场景

使用说明

核心用法

input-guard 是专为AI Agent设计的前置防御层,必须在处理任何不可信外部文本前执行扫描。支持三种输入方式:命令行直接传入文本、、--file读取文件、、--stdin管道输入。输出模式灵活,包括人类可读格式、JSON结构化输出和静默模式。核心扫描基于16类正则检测规则(指令覆盖、角色操纵、系统模仿、越狱、数据外泄等),覆盖英语、韩语、日语、中文四种语言。可选LLM增强层通过语义分析捕获隐喻、故事化越狱等规避型攻击。

显著优点

零依赖架构是最大亮点——核心扫描仅依赖Python标准库,无需pip安装即可在任何Python 3环境运行,极大降低供应链攻击面。双重检测机制兼顾效率与深度:正则扫描<100ms适合实时过滤,LLM层2-5秒提供语义级防护。敏感度分级(low/medium/high/paranoid)允许用户根据场景平衡安全性与误报率。生态集成完善:内置OpenClaw告警通道、MoltThreats社区威胁共享、标准退出码(0/1)便于脚本化集成。

潜在缺点与局限性

正则引擎存在固有误报率,high/paranoid模式可能过度拦截正常内容。LLM扫描带来成本与延迟(约2000 tokens/次),不适合高频批量场景。多语言支持虽覆盖主要语种,但小语种攻击向量可能遗漏。依赖外部API key(OpenAI/Anthropic/MoltThreats)意味着功能可用性受第三方制约。此外,该工具仅检测已知攻击模式,零日提示注入仍需依赖LLM层的泛化能力。

适合的目标群体

  • AI Agent开发者:需为自主Agent构建安全边界的工程师
  • RAG系统架构师:处理网页、文档等外部知识源时强制前置过滤
  • 安全运维团队:监控AI工作流的威胁态势并建立响应流程
  • 多语言AI产品团队:服务英/韩/日/中用户市场的产品
  • 合规敏感行业:金融、医疗、法律等需审计追踪的领域

使用风险

性能风险:LLM模式引入2-5秒延迟,高并发场景需限流或降级至正则模式。依赖风险:taxonomy.json缓存过期或API不可用时,LLM层功能降级。配置风险:敏感度设置不当导致业务流中断(paranoid模式误报)或防护失效(low模式漏报)。隐私风险:LLM扫描将用户数据发送至OpenAI/Anthropic,需明确告知并获得授权。

input-guard 内容

文件夹图标evals文件夹
文件夹图标scripts文件夹
手动下载zip · 43.9 kB
cases.jsonapplication/json
请选择文件