MindSearch技术详解,本地搭建媲美Perplexity的AI思·索应用!

简介: MindSearch是书生·浦语团队提出的AI搜索框架,基于InternLM2.5 7B模型,采用multi-agent框架模拟人类思维,先规划再搜索,提高信息搜集的准确性和完整性。

 引言

MindSearch是书生·浦语团队提出的AI搜索框架,基于InternLM2.5 7B模型,采用multi-agent框架模拟人类思维,先规划再搜索,提高信息搜集的准确性和完整性。研发团队正式公开其背后的技术方案,并全栈开源了相关工具链,让你在家就能免费用上 SearchGPT 的开源平替!

官网:

https://mindsearch.netlify.app/

在线DEMO(PC体验更加):

https://modelscope.cn/studios/Shanghai_AI_Laboratory/MindSearch

模型开源地址:

https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

GitHub:

https://github.com/InternLM/mindsearch

paper:

https://arxiv.org/abs/2407.20183

如下面视频所示,对于多步骤的复杂问题,模型能够分析用户需求,再针对每一个技术难点搜索对应的解决方案,最后总结并输出答案。

image.gif

 

技术解析

MindSearch架构图:
image.gif

小编划重点:

  1. 支持开放域搜索,兼具深度和广度,信息搜索+信息整合过程全部可视化
  2. 基于Multi-Agent框架实现,包括两层:
  3. 外层Web Planner 负责任务的拆解和动态规划
  4. 内层Web Search 负责对子问题进行搜索和信息整合
  5. 搜索过程比较丝滑,单问题端到端时间在3min

技术详解视频

image.gif

Multi-Agent框架

和现有的 AI 搜索引擎技术相比,MindSearch 因为采用了多智能体框架和模拟了人的思维过程,会先对问题进行拆解和规划,因此在回答的信息准确性、完整性和时效性上具有显著的优势。

整体包括三层:

  1. 思:Web Planner 负责任务的拆解和动态规划
    a、 树状任务规划,动态迭代,有3种节点类型:root、search、response
    b、 基于code interpreter实现,每次增加若干节点并串行执行节点(一般就是搜索)
    c、 有最大轮数(节点数)限制 (=10)
  2. 索:Web Search 负责对子问题进行搜索和信息整合
    a、包含5步:思考、改写、搜索、阅读、总结
    b、实际在一次LLM推理中,通过function call完成,搜索和阅读是两个tool
    c、最终沉淀为历史问答对 <question, answer>,加入到最终回答prompt中
  3. Response生成

实现部分参考框架开源代码:https://github.com/InternLM/lagent

迭代式搜索规划 (Web Planner)

在System中定义了Graph相关的类和方法,让大模型生成可执行的python代码

GRAPH_PROMPT_CN = """## 人物简介
你是一个可以利用 Jupyter 环境 Python 编程的程序员。你可以利用提供的 API 来构建 Web 搜索图,最终生成代码并执行。
## API 介绍
下面是包含属性详细说明的 `WebSearchGraph` 类的 API 文档:
### 类:`WebSearchGraph`
此类用于管理网络搜索图的节点和边,并通过网络代理进行搜索。
#### 初始化方法
初始化 `WebSearchGraph` 实例。
**属性:**
- `nodes` (Dict[str, Dict[str, str]]): 存储图中所有节点的字典。每个节点由其名称索引,并包含内容、类型以及其他相关信息。
- `adjacency_list` (Dict[str, List[str]]): 存储图中所有节点之间连接关系的邻接表。每个节点由其名称索引,并包含一个相邻节点名称的列表。
#### 方法:`add_root_node`
添加原始问题作为根节点。
**参数:**
- `node_content` (str): 用户提出的问题。
- `node_name` (str, 可选): 节点名称,默认为 'root'。
#### 方法:`add_node`
添加搜索子问题节点并返回搜索结果。
**参数:
- `node_name` (str): 节点名称。
- `node_content` (str): 子问题内容。
**返回:**
- `str`: 返回搜索结果。
#### 方法:`add_response_node`
当前获取的信息已经满足问题需求,添加回复节点。
**参数:**
- `node_name` (str, 可选): 节点名称,默认为 'response'。
#### 方法:`add_edge`
添加边。
**参数:**
- `start_node` (str): 起始节点名称。
- `end_node` (str): 结束节点名称。
#### 方法:`reset`
重置节点和边。
#### 方法:`node`
获取节点信息。
```python
def node(self, node_name: str) -> str
```
**参数:**
- `node_name` (str): 节点名称。
**返回:**
- `str`: 返回包含节点信息的字典,包含节点的内容、类型、思考过程(如果有)和前驱节点列表。
## 任务介绍
通过将一个问题拆分成能够通过搜索回答的子问题(没有关联的问题可以同步并列搜索),每个搜索的问题应该是一个单一问题,即单个具体人、事、物、具体时间点、地点或知识点的问题,不是一个复合问题(比如某个时间段), 一步步构建搜索图,最终回答问题。
## 注意事项
1. 注意,每个搜索节点的内容必须单个问题,不要包含多个问题(比如同时问多个知识点的问题或者多个事物的比较加筛选,类似 A, B, C 有什么区别,那个价格在哪个区间 -> 分别查询)
2. 不要杜撰搜索结果,要等待代码返回结果
3. 同样的问题不要重复提问,可以在已有问题的基础上继续提问
4. 添加 response 节点的时候,要单独添加,不要和其他节点一起添加,不能同时添加 response 节点和其他节点
5. 一次输出中,不要包含多个代码块,每次只能有一个代码块
6. 每个代码块应该放置在一个代码块标记中,同时生成完代码后添加一个<|action_end|>标志,如下所示:
    <|action_start|><|interpreter|>```python
    # 你的代码块
    ```<|action_end|>
7. 最后一次回复应该是添加node_name为'response'的 response 节点,必须添加 response 节点,不要添加其他节点
"""


graph_fewshot_example_cn = """
## 返回格式示例
<|action_start|><|interpreter|>```python
graph = WebSearchGraph()
graph.add_root_node(node_content="哪家大模型API最便宜?", node_name="root") # 添加原始问题作为根节点
graph.add_node(
        node_name="大模型API提供商", # 节点名称最好有意义
        node_content="目前有哪些主要的大模型API提供商?")
graph.add_node(
        node_name="sub_name_2", # 节点名称最好有意义
        node_content="content of sub_name_2")
...
graph.add_edge(start_node="root", end_node="sub_name_1")
...
graph.node("大模型API提供商"), graph.node("sub_name_2"), ...
```<|action_end|>
"""


搜索任务执行过程 (Web Searcher)

整个过程包含5步:思考、改写、搜索、阅读、总结

基于few-shot,在一个LLM推理中,通过function call功能实现

最终沉淀为历史问答对 <question, answer>,加入到最终回答prompt中

思考、改写、总结

改写一般拆4个query

searcher_system_prompt_cn = """## 人物简介
你是一个可以调用网络搜索工具的智能助手。请根据"当前问题",调用搜索工具收集信息并回复问题。你能够调用如下工具:
{tool_info}
## 回复格式
调用工具时,请按照以下格式:
```
你的思考过程...<|action_start|><|plugin|>{{"name": "tool_name", "parameters": {{"param1": "value1"}}}}<|action_end|>
```
## 要求
- 回答中每个关键点需标注引用的搜索结果来源,以确保信息的可信度。给出索引的形式为`[[int]]`,如果有多个索引,则用多个[[]]表示,如`[[id_1]][[id_2]]`。
- 基于"当前问题"的搜索结果,撰写详细完备的回复,优先回答"当前问题"。
"""

image.gif

搜索

【Search API】目前支持Bing Web Serach/ DuckDuckGo Search

【召回数量】每个改写query召回4条结果

阅读

分为select和fetch两步:

●【select】通过大模型根据所有网页title和snippet,生成要阅读的网页id,分别进行fetch

fewshot_example_cn = """
## 样例
### search
当我希望搜索"王者荣耀现在是什么赛季"时,我会按照以下格式进行操作:
现在是2024年,因此我应该搜索王者荣耀赛季关键词<|action_start|><|plugin|>{{"name": "FastWebBrowser.search", "parameters": {{"query": ["王者荣耀 赛季", "2024年王者荣耀赛季"]}}}}<|action_end|>
### select
为了找到王者荣耀s36赛季最强射手,我需要寻找提及王者荣耀s36射手的网页。初步浏览网页后,发现网页0提到王者荣耀s36赛季的信息,但没有具体提及射手的相关信息。网页3提到“s36最强射手出现?”,有可能包含最强射手信息。网页13提到“四大T0英雄崛起,射手荣耀降临”,可能包含最强射手的信息。因此,我选择了网页3和网页13进行进一步阅读。<|action_start|><|plugin|>{{"name": "FastWebBrowser.select", "parameters": {{"index": [3, 13]}}}}<|action_end|>
"""

image.gif

●【fetch】直接用requests.get实现,单文档长度设置为最大8192

image.gif image.gif

最终回复生成

在LLM推理过程中输出,边输出边渲染

FINAL_RESPONSE_CN = """基于提供的问答对,撰写一篇详细完备的最终回答。
- 回答内容需要逻辑清晰,层次分明,确保读者易于理解。
- 回答中每个关键点需标注引用的搜索结果来源(保持跟问答对中的索引一致),以确保信息的可信度。给出索引的形式为`[[int]]`,如果有多个索引,则用多个[[]]表示,如`[[id_1]][[id_2]]`。
- 回答部分需要全面且完备,不要出现"基于上述内容"等模糊表达,最终呈现的回答不包括提供给你的问答对。
- 语言风格需要专业、严谨,避免口语化表达。
- 保持统一的语法和词汇使用,确保整体文档的一致性和连贯性。"""

image.gif

魔搭最佳实践

下面我们介绍,如何在魔搭社区免费算力(22G)上,本地部署MindSearch,即刻拥有本地专属的MindSearch!

第一步:安装依赖

git clone https://github.com/InternLM/MindSearch
cd MindSearch
pip install -r requirements.txt

image.gif

第二步:下载模型书生·浦语模型

modelscope download --model=Shanghai_AI_Laboratory/internlm2_5-7b-chat --local_dir ./internlm2_5-7b-chat/

image.gif

这里,我们需要将lmdeploy默认从huggingface下载的模型id改为本地文件地址。

修改代码:https://github.com/InternLM/MindSearch/blob/main/mindsearch/agent/models.py#L7

path='/mnt/workspace/internlm2_5-7b-chat',

image.gif

第三步:搜索引擎选择Bing

由于默认的DuckDuckGo搜索引擎访问不畅,本文推荐改使用使用Bing的搜索引擎

修改代码:https://github.com/InternLM/MindSearch/blob/main/mindsearch/agent/__init__.py#L45

BingBrowser(searcher_type='BingSearch',
                            topk=6,
                            api_key=os.environ.get(
                                'BING_API_KEY',
                                'None'))),

image.gif

Bing API Key 获取网址:

https://www.microsoft.com/en-us/bing/apis/bing-web-search-api

第四步:修改lmdeploy代码(可选)

安装lagent之前(参考requirements),可修改lagent中lmdeploy代码,是之支持更小显存(22G可运行)

https://github.com/InternLM/lagent/blob/main/lagent/llms/lmdeploy_wrapper.py#L311

from lmdeploy import TurbomindEngineConfig
backend_config = TurbomindEngineConfig(cache_max_entry_count=0.2)
self.client = lmdeploy.serve(
    model_path=self.path,
    model_name=model_name,
    server_name=server_name,
    server_port=server_port,
    tp=tp,
    backend_config=backend_config,
    log_level=log_level,
    **serve_cfg)

image.gif

第五步:启动Mindsearch后端API

安装FastAPI Server

python -m mindsearch.app --lang en --model_format internlm_server

image.gif

第六步:启动MindSearch前端

Streamlit体验和前端体验比较好

streamlit run frontend/mindsearch_streamlit.py


image.gif

image.gif

image.gif

 

相关文章
|
10天前
|
机器学习/深度学习 人工智能 自动驾驶
企业内训|AI大模型在汽车行业的前沿应用研修-某汽车集团
本课程是TsingtaoAI为某汽车集团高级项目经理设计研发,课程全面系统地解析AI的发展历程、技术基础及其在汽车行业的深度应用。通过深入浅出的理论讲解、丰富的行业案例分析以及实战项目训练,学员将全面掌握机器学习、深度学习、NLP与CV等核心技术,了解自动驾驶、智能制造、车联网与智能营销等关键应用场景,洞悉AI技术对企业战略布局的深远影响。
144 97
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
CogAgent-9B 是智谱AI基于 GLM-4V-9B 训练的专用Agent任务模型,支持高分辨率图像处理和双语交互,能够预测并执行GUI操作,广泛应用于自动化任务。
46 12
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
|
6天前
|
数据采集 人工智能 运维
从企业级 RAG 到 AI Assistant,阿里云Elasticsearch AI 搜索技术实践
本文介绍了阿里云 Elasticsearch 推出的创新型 AI 搜索方案
101 3
从企业级 RAG 到 AI Assistant,阿里云Elasticsearch AI 搜索技术实践
|
2天前
|
机器学习/深度学习 人工智能 监控
AI在交通管理系统中的应用
AI在交通管理系统中的应用
31 23
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
AI写作新时代:自然语言生成技术与写作助手的结合
AI写作新时代:自然语言生成技术与写作助手的结合
33 16
|
9天前
|
机器学习/深度学习 数据采集 人工智能
AI在用户行为分析中的应用:实现精准洞察与决策优化
AI在用户行为分析中的应用:实现精准洞察与决策优化
54 15
|
4天前
|
人工智能 API
新年课程开启:手把手教学,0基础5次课程学会搭建无限拓展的AI应用
你是否想过自己也能动手搭建一个AI应用?现在,这个目标触手可及!
|
23小时前
|
存储 人工智能 Serverless
7分钟玩转 AI 应用,函数计算一键部署 AI 生图大模型
人工智能生成图像(AI 生图)的领域中,Stable Diffusion WebUI 以其强大的算法和稳定的输出质量而闻名。它能够快速地从文本描述中生成高质量的图像,为用户提供了一个直观且高效的创作平台。而 ComfyUI 则以其用户友好的界面和高度定制化的选项所受到欢迎。ComfyUI 的灵活性和直观性使得即使是没有技术背景的用户也能轻松上手。本次技术解决方案通过函数计算一键部署热门 AI 生图大模型,凭借其按量付费、卓越弹性、快速交付能力的特点,完美实现低成本,免运维。
|
3天前
|
数据采集 人工智能 运维
从企业级 RAG 到 AI Assistant,阿里云Elasticsearch AI 搜索技术实践
本文介绍了阿里云 Elasticsearch 推出的创新型 AI 搜索方案。
|
4天前
|
人工智能 供应链 安全
面向高效大模型推理的软硬协同加速技术 多元化 AI 硬件引入评测体系
本文介绍了AI硬件评测体系的三大核心方面:统一评测标准、平台化与工具化、多维度数据消费链路。通过标准化评测流程,涵盖硬件性能、模型推理和训练性能,确保评测结果客观透明。平台化实现资源管理与任务调度,支持大规模周期性评测;工具化则应对紧急场景,快速适配并生成报告。最后,多维度数据消费链路将评测数据结构化保存,服务于综合通用、特定业务及专业性能分析等场景,帮助用户更好地理解和使用AI硬件。