核心用法
UnSearch Skill 提供五个核心 API 端点,满足从基础搜索到深度研究的全链路需求:
1. Web Search:基础网页搜索,支持 Google/Bing/DuckDuckGo 多引擎并行,可选网页内容抓取(scrape_content),返回结构化结果包含标题、摘要、完整正文及字数统计。
2. Agent Search:AI 优化的搜索端点(Tavily 兼容),支持生成 AI 回答(basic/advanced/production 三级深度),可限定/排除特定域名,返回带置信度评分的引用结果,专为 LLM 应用设计。
3. Content Extraction:针对特定 URL 的内容提取,支持批量处理,可提取原始文本内容,适用于对已知的网页进行深度解析而非全网搜索。
4. Deep Research:多源深度研究模式,提供 quick/standard/deep/comprehensive 四级深度,自动综合 3-30 个来源生成执行摘要(executive summary)、关键发现(key findings)和引用列表,适合学术调研和商业分析。
5. Fact Verification:事实核查端点,对特定声明进行多源验证,返回 true/false/partially_true/misleading/unverifiable 等判定结果及置信度评分,支持假新闻检测和事实验证工作流。
所有端点均通过标准 HTTP POST 请求访问,支持 Python(httpx)、JavaScript(fetch)和 curl 调用,提供完整的 JSON 响应格式和错误码处理(401/429/422/500)。
显著优点
开源与成本优势:作为开源的 Tavily/Exa 替代方案,提供免费套餐(5000 次/月)和透明定价,降低 AI 应用的数据获取成本。
隐私保护机制:支持零留存模式(Zero-Retention),通过 X-Zero-Retention: true 头确保敏感查询不留存,满足隐私合规要求。
RAG 流程优化:Agent Search 专为检索增强生成设计,返回带评分的内容片段和结构化引用,可直接注入 LLM 上下文,减少幻觉问题。
多源验证能力:独特的事实核查端点可自动交叉验证信息源,为 AI 应用提供可信度评估,适合新闻核查、学术验证等高风险场景。
多语言支持:支持 ISO 639-1 语言代码指定,可进行多语言搜索和内容提取,满足全球化应用需求。
潜在缺点与局限性
来源可信度限制:开发者来自社区/个人(T3 来源),虽代码透明可审计,但缺乏知名机构背书,企业级应用需谨慎评估长期维护能力。
网络依赖与数据出境:所有功能依赖 api.unsearch.dev 服务,需确保网络连通性,且数据需传输至第三方服务器,对数据主权敏感的场景(如政府、金融)可能存在合规限制。
API 配额与限流:免费版仅 10 次/分钟,高并发场景需付费升级(Pro/Growth/Scale),且作为相对较新的服务,稳定性可能不及 Google Custom Search 等成熟方案。
内容提取限制:依赖目标网页的反爬策略,部分 JavaScript 渲染的现代网页(SPA)可能抓取失败,且未提供浏览器模拟(playwright/puppeteer)等高级渲染选项。
适合的目标群体
- AI Agent 开发者:需要为自主代理提供实时网络搜索和工具调用能力
- RAG 系统架构师:构建检索增强生成流程,需要高质量的网页内容注入
- 学术研究员:进行文献调研、事实核查和多源信息综合
- 内容审核团队:需要自动化的事实验证和假新闻检测工具
- 市场情报分析师:监控竞品动态、行业趋势,需要深度研究模式
使用风险
API 可用性风险:作为第三方服务,存在单点故障可能,建议实现熔断机制和降级方案(如切换至备用搜索 API)。
数据隐私风险:尽管提供零留存模式,但搜索查询本身仍可能包含敏感信息,建议对医疗、法律等敏感领域启用隐私模式并审查服务条款。
成本控制风险:深度研究(deep/comprehensive)模式可能消耗大量配额(单次查询可能触发多次内部搜索),需监控用量避免超额。
内容版权风险:抓取网页内容需遵守 robots.txt 和版权法规,商业用途需注意引用来源的知识产权问题。