核心用法
input-guard 是专为AI Agent设计的前置防御层,必须在处理任何不可信外部文本前执行扫描。支持三种输入方式:命令行直接传入文本、、--file读取文件、、--stdin管道输入。输出模式灵活,包括人类可读格式、JSON结构化输出和静默模式。核心扫描基于16类正则检测规则(指令覆盖、角色操纵、系统模仿、越狱、数据外泄等),覆盖英语、韩语、日语、中文四种语言。可选LLM增强层通过语义分析捕获隐喻、故事化越狱等规避型攻击。
显著优点
零依赖架构是最大亮点——核心扫描仅依赖Python标准库,无需pip安装即可在任何Python 3环境运行,极大降低供应链攻击面。双重检测机制兼顾效率与深度:正则扫描<100ms适合实时过滤,LLM层2-5秒提供语义级防护。敏感度分级(low/medium/high/paranoid)允许用户根据场景平衡安全性与误报率。生态集成完善:内置OpenClaw告警通道、MoltThreats社区威胁共享、标准退出码(0/1)便于脚本化集成。
潜在缺点与局限性
正则引擎存在固有误报率,high/paranoid模式可能过度拦截正常内容。LLM扫描带来成本与延迟(约2000 tokens/次),不适合高频批量场景。多语言支持虽覆盖主要语种,但小语种攻击向量可能遗漏。依赖外部API key(OpenAI/Anthropic/MoltThreats)意味着功能可用性受第三方制约。此外,该工具仅检测已知攻击模式,零日提示注入仍需依赖LLM层的泛化能力。
适合的目标群体
- AI Agent开发者:需为自主Agent构建安全边界的工程师
- RAG系统架构师:处理网页、文档等外部知识源时强制前置过滤
- 安全运维团队:监控AI工作流的威胁态势并建立响应流程
- 多语言AI产品团队:服务英/韩/日/中用户市场的产品
- 合规敏感行业:金融、医疗、法律等需审计追踪的领域
使用风险
性能风险:LLM模式引入2-5秒延迟,高并发场景需限流或降级至正则模式。依赖风险:taxonomy.json缓存过期或API不可用时,LLM层功能降级。配置风险:敏感度设置不当导致业务流中断(paranoid模式误报)或防护失效(low模式漏报)。隐私风险:LLM扫描将用户数据发送至OpenAI/Anthropic,需明确告知并获得授权。