guardrails

🛡️ 交互式安全护栏配置专家

🥥83总安装量 19评分人数 22
100% 的用户推荐

通过智能访谈为 OpenClaw 工作空间生成定制化安全护栏配置,自动化风险评估与策略生成,确保 AI 协作环境安全合规。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 通过所有安全检测,无 eval/exec/system 等危险函数,无动态代码执行风险
  • ✅ 所有文件写入操作均需用户明确确认,无静默数据收集或上传行为
  • ⚠️ 需用户自行配置 LLM API Key(OpenAI 或 Anthropic),网络请求仅发送至官方端点
  • ⚠️ 来源为 T3 级个人开发者(dgriffin831),虽代码安全但建议审查后使用
  • ✅ 依赖版本可控(Python 标准库 + requests),输入验证与错误处理完善

使用说明

guardrails 是一款专为 OpenClaw 工作空间设计的交互式安全护栏配置工具。该技能通过智能化的访谈流程,帮助用户系统化地评估和配置 AI 协作环境的安全策略。其核心工作流包含三种模式:setup 模式通过环境发现、风险分类、交互式访谈和策略生成四步流程,自动创建 GUARDRAILS.md 安全文档;review 模式用于比对现有配置与当前环境差异,识别新增或移除的技能风险;monitor 模式则提供持续的配置状态监控,及时发现潜在违规或配置漂移。

该技能的显著优势在于其自动化与个性化的完美结合。基于 bash 和 Python 的轻量级脚本能够自动发现工作环境中的技能集成和潜在风险点,结合 LLM 生成针对性的访谈问题,避免了通用安全模板的僵化。特别值得称赞的是其严谨的安全设计:所有文件写入操作均需用户最终确认,发现与分类阶段仅进行只读扫描,有效避免了对工作环境的侵入性操作。此外,生成的 guardrails-config.json 提供了机器可读的配置格式,便于与 CI/CD 流程集成。

然而,该技能也存在一定局限性。首先,其核心功能(问题生成与文档生成)依赖 OpenAI 或 Anthropic 的 API,在无法提供 API Key 的环境中功能受限。其次,作为 T3 级来源的个人开发者作品,虽通过 A 级安全认证,但对于来源要求严格的组织可能需要额外的安全审计。另外,技能仅负责"创建"护栏文档,实际的执行与 Enforcement 仍需依赖 Agent 自身的遵守,存在策略与执行脱节的潜在 gap。

该技能最适合以下群体:使用 OpenClaw 平台进行 AI 协作的开发团队、需要建立系统化 AI 安全治理框架的企业安全管理员、以及希望自动化安全合规流程的 DevOps 工程师。对于缺乏安全专业背景但希望快速建立基础防护的用户,其交互式访谈模式提供了友好的上手体验。

使用风险方面,用户需注意 API Key 的安全管理,避免在共享环境中硬编码密钥。生成的配置文件包含工作空间的安全策略细节,需确保文件权限设置适当(建议 600 权限)。此外,由于依赖 LLM 生成内容,建议用户仔细审查生成的 GUARDRAILS.md 内容,避免 AI 幻觉导致的不准确安全建议。定期运行 monitor 模式可及时发现环境变化带来的配置漂移。

guardrails 内容

文件夹图标schemas文件夹
文件夹图标scripts文件夹
文件夹图标templates文件夹
手动下载zip · 24.7 kB
config.schema.jsonapplication/json
请选择文件