dgr

🧭 审计级决策治理与结构化记录

🥥8总安装量 2评分人数 2
100% 的用户推荐

来自 ClawHub 的决策治理协议,通过结构化 JSON 为高风险决策提供可审计、可追溯的推理记录与风险评估。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 纯文档型资产,无代码执行风险:仅包含 Markdown 文档与 JSON 配置文件,无任何可执行脚本、动态代码或系统命令
  • ✅ 零网络通信与数据隐私风险:Skill 不发起网络请求,不上传用户数据,所有处理均在本地完成,无敏感信息收集行为
  • ✅ 内容透明且边界清晰:明确声明不保证正确性、最优性或合规性,包含完善的安全治理边界说明与免责声明
  • ⚠️ T3 来源可信度限制:由社区个人开发者(sapenov)维护,非官方组织认证,建议企业用户结合内部标准进行二次验证
  • ⚠️ 输出需人工审核:生成的 JSON 决策记录仅为辅助工具,高风险场景必须经由人工审查验证,不可直接作为最终决策依据

使用说明

核心用法

DGR(Decision-Grade Reasoning)是一套面向 LLM 输出的决策级推理治理协议,旨在生成符合审计标准的结构化决策工件。用户通过提供决策请求或问题上下文,选择三种运行模式之一(dgr_min 快速模式、dgr_full 标准模式、dgr_strict 严格模式),即可获得一份 schema 验证通过的 JSON 格式决策记录。该记录强制包含至少一项假设、一项风险、一份建议及一致性检查,可直接存储至工单系统、事故日志或审计追踪库中,实现决策过程的完整留痕。

显著优点

审计就绪的架构设计:输出格式严格遵循 JSON schema,确保机器可读与人工审查的双重兼容性,特别适合金融、医疗、法律等强合规场景。

风险显式化管理:强制要求显式声明假设(Assumptions)与风险(Risks),并提供风险等级评估,有效避免"隐性偏见"导致的决策盲区。

分级治理模式:三种预设模式(min/full/strict)分别对应不同风险等级的决策场景,从快速低风险决策到高不确定性保守分析,实现资源投入与风险控制的动态平衡。

可扩展的审查流程:通过 recommendation.review_required 字段自动触发人工审查标记,支持企业建立标准化的决策复核工作流。

潜在缺点与局限性

来源可信度限制:作为 T3 级社区来源(个人开发者维护),缺乏官方组织背书,企业用户需结合内部治理标准进行二次验证。

过程质量≠结果正确:Skill 明确声明不保证决策的正确性、最优性或真实性,仅提升决策过程的清晰度与可追溯性,存在"形式合规但实质错误"的潜在风险。

模式选择依赖经验:用户需自行判断使用何种模式(min/full/strict),错误选择可能导致过度分析(over-analysis)或审查不足。

JSON 技术门槛:输出为结构化 JSON 数据,非技术背景用户可能需要额外工具或培训才能有效解读与利用。

适合的目标群体

合规与审计团队:需要为 AI 辅助决策建立完整审计追踪的企业合规官、内部审计师。

项目管理与运营:处理高风险项目决策、事故响应(Incident Triage)、变更管理(Change Management)的项目经理与运维负责人。

研究与分析机构:需要结构化记录研究假设、方法局限性与推荐结论的科研团队、政策分析师。

AI 治理从业者:正在建立企业级 AI 使用规范、需要标准化 LLM 输出格式的 AI 伦理与治理委员会。

使用风险与注意事项

过度依赖风险:由于输出格式专业且结构完整,用户可能产生"机器验证通过即正确"的虚假安全感,忽视对实质内容的批判性思考。

假设验证责任:Skill 生成的假设列表仅为启发式引导,用户必须独立验证每项假设的真实性,否则可能导致级联错误。

模式匹配错误:在真正高风险的法律、医疗或金融场景中,若误用 dgr_min 模式,可能因分析深度不足而遗漏关键风险。

数据隐私边界:虽然 Skill 本身不上传数据,但用户输入的决策上下文可能包含敏感信息,需确保本地存储与传输符合 GDPR/等保等法规要求。

版本兼容性:当前版本 1.0.4 仍在快速迭代中,schema 字段可能在后续更新中调整,建议生产环境使用前锁定版本。

dgr 内容

文件夹图标examples文件夹
手动下载zip · 10.0 kB
access_request.mdtext/markdown
请选择文件