OpenDeepSearch:搜索引擎革命!这个开源深度搜索工具让AI代理直接读懂网页,复杂问题一键拆解

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: OpenDeepSearch是基于开源推理模型的深度搜索工具,通过语义重排和多源整合优化检索效果,支持与AI代理无缝集成,提供快速和专业两种搜索模式。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🚀 「搜索引擎革命!开源神器让AI代理直接读懂网页,复杂问题一键拆解」

大家好,我是蚝油菜花。当传统搜索引擎还在返回零散链接时,这个开源项目已经让AI学会了「阅读理解」!

你是否也受够了这些搜索困境——

  • 🔍 查学术资料要手动对比10个网页
  • 📊 分析市场数据得自己整理表格
  • 🤖 问AI复杂问题总得到碎片化答案...

今天要介绍的 OpenDeepSearch ,正在重新定义信息检索!这个由Sentient AGI开源的搜索核弹:

  • 语义理解开挂:用知识图谱解析网页内容,告别关键词匹配
  • 多跳推理王:自动拆解「A对B的影响如何通过C体现」类复杂问题
  • AI代理最佳拍档:与Hugging Face生态无缝集成,搜索结果直接喂给代码生成器

已有团队用它1小时完成竞品分析报告,接下来将揭秘这套开源搜索系统的技术架构!

🚀 快速阅读

OpenDeepSearch是专为AI代理优化的开源深度搜索工具。

  1. 功能:支持语义搜索和多跳查询,提供快速和专业两种模式。
  2. 技术:基于语义重排器和ReAct框架,整合网络爬取与推理能力。

OpenDeepSearch 是什么

OpenDeepSearch

OpenDeepSearch 是专为AI代理设计的开源深度搜索工具,通过语义理解优化传统关键词检索方式。该系统包含Open Search Tool和Open Reasoning Agent两大核心组件,支持从简单查询到复杂多跳问题的全场景搜索需求。

作为Hugging Face SmolAgents生态的优化组件,它采用模块化设计,允许自由切换不同的大语言模型作为推理引擎。测试显示其在处理需要跨文档验证的问题时,准确率比传统搜索引擎提升47%。

OpenDeepSearch 的主要功能

  • 语义搜索:基于Qwen2-7B等模型实现语义级结果重排
  • 双模式检索:快速模式响应时间<1秒,专业模式支持多轮验证
  • 代理集成:直接输出结构化数据供AI代理进一步处理
  • 数学计算:通过Wolfram Alpha API处理数值问题
  • 动态爬取:实时抓取最新网页内容确保信息时效性

OpenDeepSearch 的技术原理

  • 查询扩展:生成多个语义相关查询提升召回率
  • 段落提取:从网页中智能抽取关键内容段落
  • ReAct框架:结合思考-行动-观察循环解决复杂问题
  • 代码执行:通过生成Python代码处理计算密集型任务
  • 微服务架构:各组件可独立部署和扩展

如何运行 OpenDeepSearch

下面将带你了解如何安装、配置和运行 OpenDeepSearch,以充分利用其语义搜索和高级搜索模式。

安装

在开始使用 OpenDeepSearch 之前,请确保你的系统满足以下安装要求:

1. 安装依赖

运行以下命令以安装 OpenDeepSearch 的依赖项:

pip install -e . # 你也可以使用:uv pip install -e .
pip install -r requirements.txt # 你也可以使用:uv pip install -r requirements.txt

注意:必须安装 torch,并且建议使用 uv 而非 pip 来简化安装过程。

配置

2. 获取 Serper.dev API 密钥

  1. 获取你的 API 密钥并将其设置为环境变量:
export SERPER_API_KEY='your-api-key-here'

3. 选择重新排序解决方案

OpenDeepSearch 支持以下重新排序选项:

4. 配置 LiteLLM 提供程序

选择一个支持的提供程序(如 OpenAI、Anthropic 或 Google Gemini),并设置其 API 密钥:

export <PROVIDER>_API_KEY='your-api-key-here'  # 例如:OPENAI_API_KEY, ANTHROPIC_API_KEY

在初始化 OpenDeepSearch 时,指定你选择的模型:

search_agent = OpenDeepSearchTool(model_name="provider/model-name")  # 例如:'openrouter/google/gemini-2.0-flash-001'

使用教程

以下是使用 OpenDeepSearch 的几种常见方式。

单独运行 OpenDeepSearch

以下代码展示了如何单独运行 OpenDeepSearch 工具:

from opendeepsearch import OpenDeepSearchTool
import os

# 设置环境变量
os.environ["SERPER_API_KEY"] = "your-serper-api-key-here"
os.environ["OPENROUTER_API_KEY"] = "your-openrouter-api-key-here"
os.environ["JINA_API_KEY"] = "your-jina-api-key-here"

# 初始化搜索工具
search_agent = OpenDeepSearchTool(
    model_name="openrouter/google/gemini-2.0-flash-001", 
    reranker="jina"  # 也可以设置为 "infinity"
)

# 执行搜索
query = "地球上最快的陆地动物是什么?"
result = search_agent.search(query)
print(result)

解释

  1. 代码中使用了 OpenDeepSearchTool 并指定了模型(openrouter/google/gemini-2.0-flash-001)和重新排序工具(jina)。
  2. search 方法用于执行搜索,返回结果并打印。

使用 Gradio 演示界面

Gradio 提供了一个用户友好的界面,你可以通过以下命令运行:

python gradio_demo.py

运行后,你将看到一个本地 Web 界面,可以交互式地测试不同搜索查询和模式。

集成 SmolAgents 和 LiteLLM

以下是将 OpenDeepSearch 与 SmolAgents 和 LiteLLM 集成的示例代码:

from opendeepsearch import OpenDeepSearchTool
from smolagents import CodeAgent, LiteLLMModel
import os

# 设置环境变量
os.environ["SERPER_API_KEY"] = "your-serper-api-key-here"
os.environ["OPENROUTER_API_KEY"] = "your-openrouter-api-key-here"
os.environ["JINA_API_KEY"] = "your-jina-api-key-here"

# 初始化搜索工具
search_agent = OpenDeepSearchTool(
    model_name="openrouter/google/gemini-2.0-flash-001", 
    reranker="jina"
)

# 初始化 LiteLLM 模型
model = LiteLLMModel(
    "openrouter/google/gemini-2.0-flash-001",
    temperature=0.2
)

# 初始化 CodeAgent
code_agent = CodeAgent(tools=[search_agent], model=model)

# 执行复杂搜索
query = "猎豹以最快速度跑完亚历山大三世桥的长度需要多久?"
result = code_agent.run(query)
print(result)

解释

  1. 代码中使用了 CodeAgent,它集成了 OpenDeepSearch 作为工具。
  2. run 方法接收复杂查询,并结合搜索工具和模型生成结果。

使用 ReAct 代理执行多工具操作

以下是结合搜索和数学工具的示例:

from opendeepsearch import OpenDeepSearchTool 
from opendeepsearch.wolfram_tool import WolframAlphaTool
from opendeepsearch.prompts import REACT_PROMPT
from smolagents import LiteLLMModel, ToolCallingAgent, Tool 
import os

# 设置环境变量
os.environ["SERPER_API_KEY"] = "your-serper-api-key-here"
os.environ["JINA_API_KEY"] = "your-jina-api-key-here"
os.environ["WOLFRAM_ALPHA_APP_ID"] = "your-wolfram-alpha-app-id-here"
os.environ["FIREWORKS_API_KEY"] = "your-fireworks-api-key-here"

# 初始化模型
model = LiteLLMModel(
    "fireworks_ai/llama-v3p1-70b-instruct",  
    temperature=0.7
)

# 初始化搜索工具
search_agent = OpenDeepSearchTool(
    model_name="fireworks_ai/llama-v3p1-70b-instruct", 
    reranker="jina"
)

# 初始化 Wolfram Alpha 工具
wolfram_tool = WolframAlphaTool(app_id=os.environ["WOLFRAM_ALPHA_APP_ID"])

# 初始化 ReAct 代理
react_agent = ToolCallingAgent(
    tools=[search_agent, wolfram_tool],
    model=model,
    prompt_templates=REACT_PROMPT  # 使用 REACT_PROMPT 作为系统提示
)

# 执行复杂查询
query = "罗马斗兽场与威尼斯里亚托桥之间的距离是多少米?"
result = react_agent.run(query)
print(result)

解释

  1. 代码中使用了 ToolCallingAgent,它结合了搜索和 Wolfram Alpha 工具。
  2. run 方法能够处理复杂的多跳查询,并返回详细结果。

搜索模式

OpenDeepSearch 提供两种搜索模式,以适应不同的需求。

默认模式

  • 使用基于 SERP 的交互,快速返回结果。
  • 适合单跳查询,响应时间短。
  • 适用于基础信息检索。

专业模式

  • 包括全面的网页抓取和语义重新排序。
  • 适合多跳查询和复杂搜索需求。
  • 结果更详细,但处理时间稍长。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
5天前
|
人工智能 监控 数据挖掘
5个开源MCP服务器:扩展AI助手能力,高效处理日常工作
AI大语言模型虽强大,但其原生能力仅限于文本对话,难以直接与外部世界交互。MCP(Model Context Protocol)服务器技术作为桥梁,赋予AI实质性环境交互能力,如浏览网页、分析数据等。本文基于实际经验,精选五种开源MCP服务器实现:Stagehand用于网络内容提取;Jupyter适用于数据分析;Opik提供AI行为监控;GitHub集成代码仓库管理;FastAPI-MCP支持自定义API集成。这些工具免费且可定制,为构建实用AI系统奠定基础。文章还提供了配置指南和应用场景剖析,助读者快速上手。
185 3
5个开源MCP服务器:扩展AI助手能力,高效处理日常工作
|
4天前
|
人工智能 自然语言处理 数据可视化
中国版“Manus”开源?AiPy:用Python重构AI生产力的通用智能体
AiPy是LLM大模型+Python程序编写+Python程序运行+程序可以控制的一切。
|
1天前
|
人工智能 IDE 开发工具
寻找Cursor的替代品:10款AI编程工具深度评测与推荐·优雅草卓伊凡
寻找Cursor的替代品:10款AI编程工具深度评测与推荐·优雅草卓伊凡
193 15
寻找Cursor的替代品:10款AI编程工具深度评测与推荐·优雅草卓伊凡
|
4天前
|
机器学习/深度学习 人工智能 Kubernetes
开源AI驱动的商业综合体保洁管理——智能视频分析系统的技术解析
智能保洁管理系统通过计算机视觉与深度学习技术,解决传统保洁模式中监管难、效率低的问题。系统涵盖垃圾滞留监测、地面清洁度评估、设施表面检测等功能,实现高精度(96%以上)、实时响应(&lt;200毫秒)。基于开源TensorFlow与Kubernetes架构,支持灵活部署与定制开发,适用于商场、机场等场景,提升管理效率40%以上。未来可扩展至气味监测等领域,推动保洁管理智能化升级。
60 26
|
7天前
|
人工智能 自然语言处理 安全
💻 Codex 来了:OpenAI 推出多任务软件工程 AI 代理,开发者工作方式将被重塑?
Codex 是 OpenAI 推出的一款云端智能开发代理,基于优化后的 Codex-1 模型,能够执行从代码编写、Bug 修复到 PR 提交的完整工程任务。通过 ChatGPT 的界面,用户可向 Codex 分配任务,它将在独立沙盒中运行并返回结果。Codex 支持多任务异步处理,遵循项目规范(AGENTS.md),并生成日志与测试报告以确保透明性。作为“AI 参与式开发”的里程碑,Codex 不仅提升效率,还可能重塑开发者角色,使他们从具体编码转向指导 AI 完成任务,推动软件工程进入意图驱动的新时代。
103 15
|
6天前
|
SQL 人工智能 数据可视化
StarRocks MCP Server 开源发布:为 AI 应用提供强大分析中枢
StarRocks MCP Server 提供通用接口,使大模型如 Claude、OpenAI 等能标准化访问 StarRocks 数据库。开发者无需开发专属插件或复杂接口,模型可直接执行 SQL 查询并探索数据库内容。其基于 MCP(Model Context Protocol)协议,包含工具、资源和提示词三类核心能力,支持实时数据分析、自动化报表生成及复杂查询优化等场景,极大简化数据问答与智能分析应用构建。项目地址:https://github.com/StarRocks/mcp-server-starrocks。
|
2天前
|
存储 人工智能 安全
【实测分享】本地AI工具AiPy更新版本v0.1.28
AiPy是一款出色的本地AI工具,2025年5月21日发布v0.1.28版本。它以本地化处理保障数据隐私,新增Trustoken联网搜索、云端私密存储等功能,支持多模型选择如阿里Qwen与腾讯Hunyuan,优化任务处理逻辑,提升效率。操作便捷升级,新老用户均可轻松上手。未来还将推出GUI客户端2.0等新功能,值得期待!(下载地址:https://www.aipyaipy.com/#download)快来体验吧!
【实测分享】本地AI工具AiPy更新版本v0.1.28
|
10天前
|
人工智能 自然语言处理 算法
炎鹊 • AI+行业工具创建平台
炎鹊是AI+行业应用工具创建平台,聚焦各行业深度业务场景需求。通过“行业知识注入+场景化微调”技术,基于垂直AI大模型与多模态推理能力,实现零代码创建定制化“智员体”(AI专业应用工具)。平台支持低代码开发、多模态输入输出、动态更新知识图谱及跨平台协作,具备持续学习进化机制。炎鹊推出的“智员体”数字员工可模拟人类思维逻辑,完成复杂任务,推动AI从辅助工具向协作主体演进,已在快消、教育、医疗等20+领域落地,助力企业构建智能组织形态。
78 11
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
八成职场人依赖AI工具下,“职业技能培训”的需求与应对策略
人工智能(AI)正深度重塑职场生态。数据显示,约八成职场人使用AI工具,00后互动频率最高。AI虽提升效率,但也带来技能退化风险。职业技能培训成为关键,如生成式人工智能认证(GAI认证)助力职场人掌握核心技术与应用方法。未来,职业技能培训与AI技术将共生共荣,推动职场人适应变革、实现成长。
|
9天前
|
人工智能 开发框架 前端开发
斩获3K+ star,再见传统开发!这款开源AI后台开发框架让效率提升300%
ruoyi-ai 是基于 ruoyi-plus 框架开发的开源 AI 平台,集成 ChatGPT4、DALL·E-3 和 MidJourney 等前沿模型,提供聊天、绘画、语音克隆等全栈式 AI 能力。其核心价值在于多模态交互与企业级部署支持,开发者可快速搭建智能应用,个人用户亦能轻松体验 AI 创作魅力。项目支持自定义知识库训练、AI 绘画生成、语音克隆、弹幕互动等功能,采用 Java17+SpringBoot3.X 技术栈,前后端分离设计,具备高效性能与扩展性。相比同类项目,ruoyi-ai 提供更丰富的功能组合和企业级管理能力,适用于多种场景需求。
100 3

热门文章

最新文章