MindSearch技术详解,本地搭建媲美Perplexity的AI思·索应用!

简介: MindSearch是书生·浦语团队提出的AI搜索框架,基于InternLM2.5 7B模型,采用multi-agent框架模拟人类思维,先规划再搜索,提高信息搜集的准确性和完整性。

 引言

MindSearch是书生·浦语团队提出的AI搜索框架,基于InternLM2.5 7B模型,采用multi-agent框架模拟人类思维,先规划再搜索,提高信息搜集的准确性和完整性。研发团队正式公开其背后的技术方案,并全栈开源了相关工具链,让你在家就能免费用上 SearchGPT 的开源平替!

官网:

https://mindsearch.netlify.app/

在线DEMO(PC体验更加):

https://modelscope.cn/studios/Shanghai_AI_Laboratory/MindSearch

模型开源地址:

https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

GitHub:

https://github.com/InternLM/mindsearch

paper:

https://arxiv.org/abs/2407.20183

如下面视频所示,对于多步骤的复杂问题,模型能够分析用户需求,再针对每一个技术难点搜索对应的解决方案,最后总结并输出答案。

image.gif

 

技术解析

MindSearch架构图:
image.gif

小编划重点:

  1. 支持开放域搜索,兼具深度和广度,信息搜索+信息整合过程全部可视化
  2. 基于Multi-Agent框架实现,包括两层:
  3. 外层Web Planner 负责任务的拆解和动态规划
  4. 内层Web Search 负责对子问题进行搜索和信息整合
  5. 搜索过程比较丝滑,单问题端到端时间在3min

技术详解视频

image.gif

Multi-Agent框架

和现有的 AI 搜索引擎技术相比,MindSearch 因为采用了多智能体框架和模拟了人的思维过程,会先对问题进行拆解和规划,因此在回答的信息准确性、完整性和时效性上具有显著的优势。

整体包括三层:

  1. 思:Web Planner 负责任务的拆解和动态规划
    a、 树状任务规划,动态迭代,有3种节点类型:root、search、response
    b、 基于code interpreter实现,每次增加若干节点并串行执行节点(一般就是搜索)
    c、 有最大轮数(节点数)限制 (=10)
  2. 索:Web Search 负责对子问题进行搜索和信息整合
    a、包含5步:思考、改写、搜索、阅读、总结
    b、实际在一次LLM推理中,通过function call完成,搜索和阅读是两个tool
    c、最终沉淀为历史问答对 <question, answer>,加入到最终回答prompt中
  3. Response生成

实现部分参考框架开源代码:https://github.com/InternLM/lagent

迭代式搜索规划 (Web Planner)

在System中定义了Graph相关的类和方法,让大模型生成可执行的python代码

GRAPH_PROMPT_CN = """## 人物简介
你是一个可以利用 Jupyter 环境 Python 编程的程序员。你可以利用提供的 API 来构建 Web 搜索图,最终生成代码并执行。
## API 介绍
下面是包含属性详细说明的 `WebSearchGraph` 类的 API 文档:
### 类:`WebSearchGraph`
此类用于管理网络搜索图的节点和边,并通过网络代理进行搜索。
#### 初始化方法
初始化 `WebSearchGraph` 实例。
**属性:**
- `nodes` (Dict[str, Dict[str, str]]): 存储图中所有节点的字典。每个节点由其名称索引,并包含内容、类型以及其他相关信息。
- `adjacency_list` (Dict[str, List[str]]): 存储图中所有节点之间连接关系的邻接表。每个节点由其名称索引,并包含一个相邻节点名称的列表。
#### 方法:`add_root_node`
添加原始问题作为根节点。
**参数:**
- `node_content` (str): 用户提出的问题。
- `node_name` (str, 可选): 节点名称,默认为 'root'。
#### 方法:`add_node`
添加搜索子问题节点并返回搜索结果。
**参数:
- `node_name` (str): 节点名称。
- `node_content` (str): 子问题内容。
**返回:**
- `str`: 返回搜索结果。
#### 方法:`add_response_node`
当前获取的信息已经满足问题需求,添加回复节点。
**参数:**
- `node_name` (str, 可选): 节点名称,默认为 'response'。
#### 方法:`add_edge`
添加边。
**参数:**
- `start_node` (str): 起始节点名称。
- `end_node` (str): 结束节点名称。
#### 方法:`reset`
重置节点和边。
#### 方法:`node`
获取节点信息。
```python
def node(self, node_name: str) -> str
```
**参数:**
- `node_name` (str): 节点名称。
**返回:**
- `str`: 返回包含节点信息的字典,包含节点的内容、类型、思考过程(如果有)和前驱节点列表。
## 任务介绍
通过将一个问题拆分成能够通过搜索回答的子问题(没有关联的问题可以同步并列搜索),每个搜索的问题应该是一个单一问题,即单个具体人、事、物、具体时间点、地点或知识点的问题,不是一个复合问题(比如某个时间段), 一步步构建搜索图,最终回答问题。
## 注意事项
1. 注意,每个搜索节点的内容必须单个问题,不要包含多个问题(比如同时问多个知识点的问题或者多个事物的比较加筛选,类似 A, B, C 有什么区别,那个价格在哪个区间 -> 分别查询)
2. 不要杜撰搜索结果,要等待代码返回结果
3. 同样的问题不要重复提问,可以在已有问题的基础上继续提问
4. 添加 response 节点的时候,要单独添加,不要和其他节点一起添加,不能同时添加 response 节点和其他节点
5. 一次输出中,不要包含多个代码块,每次只能有一个代码块
6. 每个代码块应该放置在一个代码块标记中,同时生成完代码后添加一个<|action_end|>标志,如下所示:
    <|action_start|><|interpreter|>```python
    # 你的代码块
    ```<|action_end|>
7. 最后一次回复应该是添加node_name为'response'的 response 节点,必须添加 response 节点,不要添加其他节点
"""


graph_fewshot_example_cn = """
## 返回格式示例
<|action_start|><|interpreter|>```python
graph = WebSearchGraph()
graph.add_root_node(node_content="哪家大模型API最便宜?", node_name="root") # 添加原始问题作为根节点
graph.add_node(
        node_name="大模型API提供商", # 节点名称最好有意义
        node_content="目前有哪些主要的大模型API提供商?")
graph.add_node(
        node_name="sub_name_2", # 节点名称最好有意义
        node_content="content of sub_name_2")
...
graph.add_edge(start_node="root", end_node="sub_name_1")
...
graph.node("大模型API提供商"), graph.node("sub_name_2"), ...
```<|action_end|>
"""


搜索任务执行过程 (Web Searcher)

整个过程包含5步:思考、改写、搜索、阅读、总结

基于few-shot,在一个LLM推理中,通过function call功能实现

最终沉淀为历史问答对 <question, answer>,加入到最终回答prompt中

思考、改写、总结

改写一般拆4个query

searcher_system_prompt_cn = """## 人物简介
你是一个可以调用网络搜索工具的智能助手。请根据"当前问题",调用搜索工具收集信息并回复问题。你能够调用如下工具:
{tool_info}
## 回复格式
调用工具时,请按照以下格式:
```
你的思考过程...<|action_start|><|plugin|>{{"name": "tool_name", "parameters": {{"param1": "value1"}}}}<|action_end|>
```
## 要求
- 回答中每个关键点需标注引用的搜索结果来源,以确保信息的可信度。给出索引的形式为`[[int]]`,如果有多个索引,则用多个[[]]表示,如`[[id_1]][[id_2]]`。
- 基于"当前问题"的搜索结果,撰写详细完备的回复,优先回答"当前问题"。
"""

image.gif

搜索

【Search API】目前支持Bing Web Serach/ DuckDuckGo Search

【召回数量】每个改写query召回4条结果

阅读

分为select和fetch两步:

●【select】通过大模型根据所有网页title和snippet,生成要阅读的网页id,分别进行fetch

fewshot_example_cn = """
## 样例
### search
当我希望搜索"王者荣耀现在是什么赛季"时,我会按照以下格式进行操作:
现在是2024年,因此我应该搜索王者荣耀赛季关键词<|action_start|><|plugin|>{{"name": "FastWebBrowser.search", "parameters": {{"query": ["王者荣耀 赛季", "2024年王者荣耀赛季"]}}}}<|action_end|>
### select
为了找到王者荣耀s36赛季最强射手,我需要寻找提及王者荣耀s36射手的网页。初步浏览网页后,发现网页0提到王者荣耀s36赛季的信息,但没有具体提及射手的相关信息。网页3提到“s36最强射手出现?”,有可能包含最强射手信息。网页13提到“四大T0英雄崛起,射手荣耀降临”,可能包含最强射手的信息。因此,我选择了网页3和网页13进行进一步阅读。<|action_start|><|plugin|>{{"name": "FastWebBrowser.select", "parameters": {{"index": [3, 13]}}}}<|action_end|>
"""

image.gif

●【fetch】直接用requests.get实现,单文档长度设置为最大8192

image.gif image.gif

最终回复生成

在LLM推理过程中输出,边输出边渲染

FINAL_RESPONSE_CN = """基于提供的问答对,撰写一篇详细完备的最终回答。
- 回答内容需要逻辑清晰,层次分明,确保读者易于理解。
- 回答中每个关键点需标注引用的搜索结果来源(保持跟问答对中的索引一致),以确保信息的可信度。给出索引的形式为`[[int]]`,如果有多个索引,则用多个[[]]表示,如`[[id_1]][[id_2]]`。
- 回答部分需要全面且完备,不要出现"基于上述内容"等模糊表达,最终呈现的回答不包括提供给你的问答对。
- 语言风格需要专业、严谨,避免口语化表达。
- 保持统一的语法和词汇使用,确保整体文档的一致性和连贯性。"""

image.gif

魔搭最佳实践

下面我们介绍,如何在魔搭社区免费算力(22G)上,本地部署MindSearch,即刻拥有本地专属的MindSearch!

第一步:安装依赖

git clone https://github.com/InternLM/MindSearch
cd MindSearch
pip install -r requirements.txt

image.gif

第二步:下载模型书生·浦语模型

modelscope download --model=Shanghai_AI_Laboratory/internlm2_5-7b-chat --local_dir ./internlm2_5-7b-chat/

image.gif

这里,我们需要将lmdeploy默认从huggingface下载的模型id改为本地文件地址。

修改代码:https://github.com/InternLM/MindSearch/blob/main/mindsearch/agent/models.py#L7

path='/mnt/workspace/internlm2_5-7b-chat',

image.gif

第三步:搜索引擎选择Bing

由于默认的DuckDuckGo搜索引擎访问不畅,本文推荐改使用使用Bing的搜索引擎

修改代码:https://github.com/InternLM/MindSearch/blob/main/mindsearch/agent/__init__.py#L45

BingBrowser(searcher_type='BingSearch',
                            topk=6,
                            api_key=os.environ.get(
                                'BING_API_KEY',
                                'None'))),

image.gif

Bing API Key 获取网址:

https://www.microsoft.com/en-us/bing/apis/bing-web-search-api

第四步:修改lmdeploy代码(可选)

安装lagent之前(参考requirements),可修改lagent中lmdeploy代码,是之支持更小显存(22G可运行)

https://github.com/InternLM/lagent/blob/main/lagent/llms/lmdeploy_wrapper.py#L311

from lmdeploy import TurbomindEngineConfig
backend_config = TurbomindEngineConfig(cache_max_entry_count=0.2)
self.client = lmdeploy.serve(
    model_path=self.path,
    model_name=model_name,
    server_name=server_name,
    server_port=server_port,
    tp=tp,
    backend_config=backend_config,
    log_level=log_level,
    **serve_cfg)

image.gif

第五步:启动Mindsearch后端API

安装FastAPI Server

python -m mindsearch.app --lang en --model_format internlm_server

image.gif

第六步:启动MindSearch前端

Streamlit体验和前端体验比较好

streamlit run frontend/mindsearch_streamlit.py


image.gif

image.gif

image.gif

 

相关文章
|
14天前
|
人工智能 自然语言处理 搜索推荐
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
88 24
【上篇】-分两篇步骤介绍-如何用topview生成和自定义数字人-关于AI的使用和应用-如何生成数字人-优雅草卓伊凡-如何生成AI数字人
|
8天前
|
机器学习/深度学习 存储 人工智能
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
MNN-LLM App 是阿里巴巴基于 MNN-LLM 框架开发的 Android 应用,支持多模态交互、多种主流模型选择、离线运行及性能优化。
742 14
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
|
2天前
|
存储 人工智能 Serverless
阿里云《AI 剧本生成与动画创作》技术解决方案测评
本问是对《AI 剧本生成与动画创作》的用心体验。结论不是特别理想,在实际使用中仍存在一些问题。
50 22
|
5天前
|
人工智能 开发框架 数据可视化
Eino:字节跳动开源基于Golang的AI应用开发框架,组件化设计助力构建AI应用
Eino 是字节跳动开源的大模型应用开发框架,帮助开发者高效构建基于大模型的 AI 应用。支持组件化设计、流式处理和可视化开发工具。
118 27
|
4天前
|
人工智能 前端开发 Serverless
阿里云《AI 剧本生成与动画创作》解决方案技术评测
随着人工智能技术的发展,越来越多的工具和服务被应用于内容创作领域。阿里云推出的《AI 剧本生成与动画创作》解决方案,利用函数计算 FC 构建 Web 服务,结合百炼模型服务和 ComfyUI 工具,实现了从故事剧本撰写、插图设计、声音合成和字幕添加到视频合成的一站式自动化流程。本文将对该方案进行全面的技术评测,包括实现原理及架构介绍、部署文档指引、具体耗时分析以及实际使用体验。
51 16
|
14天前
|
机器学习/深度学习 人工智能 API
Aligner:自动修正AI的生成结果,北大推出残差修正模型对齐技术
介绍北大团队提出的 Aligner 模型对齐技术,通过学习对齐答案与未对齐答案之间的修正残差,提升大语言模型的性能。
75 28
|
4天前
|
存储 人工智能 NoSQL
Airweave:快速集成应用数据打造AI知识库的开源平台,支持多源整合和自动同步数据
Airweave 是一个开源工具,能够将应用程序的数据同步到图数据库和向量数据库中,实现智能代理检索。它支持无代码集成、多租户支持和自动同步等功能。
49 14
|
8天前
|
人工智能 自然语言处理 数据可视化
Cursor 为低代码加速,AI 生成应用新体验!
通过连接 Cursor,打破了传统低代码开发的局限,我们无需编写一行代码,甚至连拖拉拽这种操作都可以抛诸脑后。只需通过与 Cursor 进行自然语言对话,用清晰的文字描述自己的应用需求,就能轻松创建出一个完整的低代码应用。
522 8
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
DeepSeek逆天,核心是 知识蒸馏(Knowledge Distillation, KD),一项 AI 领域的关键技术
尼恩架构团队推出《LLM大模型学习圣经》系列,涵盖从Python开发环境搭建到精通Transformer、LangChain、RAG架构等核心技术,帮助读者掌握大模型应用开发。该系列由资深架构师尼恩指导,曾助力多位学员获得一线互联网企业的高薪offer,如网易的年薪80W大模型架构师职位。配套视频将于2025年5月前发布,助你成为多栖超级架构师。此外,尼恩还提供了NIO、Docker、K8S等多个技术领域的学习圣经PDF,欢迎领取完整版资源。
|
6天前
|
人工智能 关系型数据库 分布式数据库
PolarDB 开源基础教程系列 7.4 应用实践之 AI大模型外脑
PolarDB向量数据库插件通过实现通义大模型AI的外脑,解决了通用大模型无法触达私有知识库和产生幻觉的问题。该插件允许用户将新发现的知识和未训练的私有知识分段并转换为向量,存储在向量数据库中,并创建索引以加速相似搜索。当用户提问时,系统将问题向量化并与数据库中的向量进行匹配,找到最相似的内容发送给大模型,从而提高回答的准确性和相关性。此外,PolarDB支持多种编程语言接口,如Python,使数据库具备内置AI能力,极大提升了数据处理和分析的效率。
29 4

热门文章

最新文章