llm-models

🤖 统一API畅享百款大模型

🥥35总安装量 17评分人数 25
100% 的用户推荐

基于OpenRouter提供Claude、Gemini等100+LLM统一接入,实现自动回退与成本优化,让开发者通过单一CLI灵活调用多模型能力。

A

基本安全,请在特定环境下使用

  • 来自社区或个人来源,建议先隔离验证
  • ✅ 纯文档型资产,无代码执行风险,未检出eval/exec/system等危险函数
  • ✅ 无静默数据收集行为,内容完全透明可审计,权限申请与功能匹配
  • ⚠️ 依赖第三方服务inference.sh CLI和OpenRouter,需自行验证工具来源可信度
  • ⚠️ 通过OpenRouter调用LLM时数据将传输至第三方服务器,需注意隐私保护
  • ✅ 无C/D级触发项,无动态代码加载或破坏性命令

使用说明

核心用法

该Skill通过inference.sh CLI(infsh)提供对OpenRouter平台上100+大语言模型的统一访问能力。用户安装infsh工具并登录后,即可通过简单的命令行调用Claude Opus 4.5、Claude Sonnet 4.5、Gemini 3 Pro、Kimi K2、GLM-4.6等主流模型。支持直接命令行调用、JSON配置文件输入、系统提示词设置等多种交互方式,适用于代码生成、文本写作、数据分析、多步骤推理等场景。

显著优点

首先,多模型统一接口消除了学习不同API的摩擦,开发者无需分别申请Anthropic、Google、Moonshot等厂商的API密钥,通过OpenRouter单一平台即可访问全球主流模型。其次,智能路由与成本优化功能(any-model)可根据任务复杂度自动选择性价比最高的模型,降低使用成本。再者,模型多样性覆盖从快速经济的Claude Haiku到复杂推理的Claude Opus,满足不同场景需求。最后,文档详尽且透明,提供了完整的模型对比表、使用示例和最佳实践,降低了上手门槛。

潜在缺点与局限性

该Skill的外部依赖较重,核心功能完全依赖inference.sh CLI和OpenRouter第三方服务,若服务中断或变更接口,功能将立即失效。数据隐私方面,所有提示词和上下文需传输至OpenRouter及最终模型提供商服务器,不适合处理高度敏感或机密数据。来源可信度受限,目前为个人开发者维护(T3来源),缺乏企业级SLA保障。离线可用性为零,必须保持网络连接才能工作。

适合的目标群体

主要面向全栈开发者AI应用构建者,特别是需要快速原型验证多模型效果的技术团队;独立开发者初创公司,希望以统一账单管理多种LLM开销;研究人员数据科学家,需要对比不同模型在特定任务上的表现;以及运维和自动化工程师,希望将LLM能力集成到Shell脚本和CI/CD流程中。

使用风险

供应链风险:curl安装脚本和infsh二进制文件需从第三方服务器获取,存在潜在供应链攻击面,建议验证checksum。API密钥安全:infsh login会将密钥存储在本地,需确保运行环境安全。成本控制风险:OpenRouter按token计费,高频调用可能产生意外费用,建议设置预算上限。模型行为不确定性:不同版本模型输出可能存在差异,生产环境使用前应充分测试。合规风险:通过OpenRouter调用可能涉及跨境数据传输,需确保符合所在地区数据合规要求。

llm-models 内容

手动下载zip · 1.9 kB
SKILL.mdtext/markdown
请选择文件