ClawRouter 是由 BlockRunAI 开发的 OpenClaw 平台插件,旨在通过智能路由算法优化大语言模型(LLM)的调用成本。该技能本质上是一个模型网关服务,支持 OpenAI、Anthropic、Google、DeepSeek 和 xAI 等五大供应商的 30 余种模型,通过单一钱包和统一接口实现多模型管理。
核心用法上,用户首先通过 openclaw plugins install 命令安装插件,随后通过 openclaw models set 启用智能路由或固定特定模型。其路由机制将请求分为 SIMPLE(简单查询)、MEDIUM(中等复杂度)、COMPLEX(复杂任务)和 REASONING(推理任务)四个层级,分别对应 Gemini Flash、DeepSeek Chat、Claude Opus 和 o3 等不同价位的模型。据文档称,约 80% 的请求可通过规则引擎在 1 毫秒内完成分类,仅模糊查询需调用轻量级 LLM 分类器(单次成本约 $0.00003)。
显著优点在于其极致的成本优化能力。官方数据显示可节省高达 78% 的推理成本,例如将简单查询路由至 Gemini Flash 可实现 99% 的成本节约。对于需要同时对接多个 LLM 供应商的开发团队,该工具极大简化了模型选择和密钥管理流程,实现了"一次配置,多模型智能调度"的体验。
然而,该技能也存在明显局限性。首先,其来源为 GitHub 上的社区账号(BlockRunAI),属于 T3 级来源,相比官方或知名基金会背书的项目,长期维护稳定性和安全审计透明度存在不确定性。其次,虽然声称智能路由,但自动分类的准确性直接影响输出质量,若简单任务被误判为复杂任务,或反之,可能导致成本浪费或性能不足。此外,用户需将 API 密钥托管至 BlockRunAI 的生态系统,数据隐私和合规性取决于该第三方的数据处理策略。
适合的目标群体主要包括:需要高频调用多供应商 LLM 的 AI 应用开发者、对推理成本极度敏感的初创企业、以及希望统一管理多模型资源的运维团队。对于个人开发者或小规模项目,如果仅使用单一模型,引入该路由层可能增加不必要的复杂性。
使用风险方面,首要考虑的是供应商锁定风险。一旦深度集成该路由服务,迁移至其他平台将涉及配置迁移和接口适配成本。其次,所有请求流量经过 BlockRunAI 的基础设施,存在潜在的数据隐私泄露和中间人攻击风险,尽管安全报告显示当前无恶意代码。此外,依赖自动路由可能导致"黑盒"成本,用户难以精确追踪单次请求的实际流向和费用构成。建议生产环境使用时实施严格的成本监控和 fallback 机制。