本文详细介绍了如何使用 PAI-LangStudio 和 Qwen3 构建基于 RAG 和联网搜索 的 AI 智能问答应用。该应用通过将 RAG、web search 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了额外的联网搜索和特定领域知识库检索的能力,提升了智能回答的效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
一、背景信息
Qwen3
Qwen3 作为 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家(MOE)模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:
- 独特支持在思考模式(用于复杂逻辑推理、数学和编码)和非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
- 显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ(在思考模式下)和 Qwen2.5指令模型(在非思考模式下)。
- 擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。
- 支持100多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。
PAI-LangStudio
LangStudio 是依托阿里云 PAI 平台核心能力构建的面向企业级用户的一站式 LLM 大模型应用开发平台,它提供了灵活的可编程、评测和调试能力,帮助开发者快速构建端到端的 AI 应用。在智能问答应用方面,LangStudio 连通了离线知识库构建和在线应用开发两条链路,帮助用户轻松跨越从 demo 到生产的鸿沟。
通过 Qwen3 与 LangStudio 结合,既可以发挥 SOTA LLM 优秀的推理能力,也可以发挥平台产品在流程编排、开发调试、权限管控等方面的优势,帮助客户高效的构建适合生产部署的智能问答应用,在效果和成本上达到最好的平衡。
具体地说,本方案具有以下优势:
- 精准回答:通过 RAG 从知识库中提取领域专业知识,结合实时网络数据补充最新信息,最大限度提升回答准确度、减少幻觉。
- 灵活扩展:开发者可使用自定义模型和自定义知识库,并能灵活修改应用流 DAG 构成,以满足自身特有的业务需求。
- 安全可控:LangStudio 背靠阿里云 PAI 平台,通过将模型服务、知识库等放在用户私有网络中,并结合阿里云精细化的权限管控体系,达到最大程度的数据安全。
二、前提条件
1. 开通阿里信息查询服务-IQS,注册账号并获取 api_key(可通过信息查询服务-凭证管理获取)。可参考以下开通流程。
2. LangStudio 向量数据库连接,支持使用 Faiss 或 Milvus 向量数据库。若您希望使用 Milvus 数据库,您需要先完成 Milvus 数据库的创建,详情请参见创建 Milvus 实例、实例管理。
说明:Faiss 通常用于测试环境,无需额外创建数据库即可使用。在生产环境中,建议您使用 Milvus 数据库,支持处理更大规模的数据。
3. 已将 RAG 知识库语料上传至 OSS 中。
三、LangStudio 部署步骤
步骤一:在 Model Gallery 中部署Qwen3 和 Embedding 模型
1.1 部署 Qwen3 大模型
1. 进入PAI控制台 > Model Gallery,选择 大语言模型 场景。
2. 根据业务场景选择部署 Qwen3 模型,此实践中选择 Qwen3-8B。
- 以下是 Qwen3 系列不同模型的建议配置信息
- 以部署 Qwen3-8B 为例,以下状态表示部署正在进行中:
3. 单击查看调用信息,记录部署后的服务访问地址(base_url)及 API Token(api_key)。
1.2 部署 Embedding 模型
1. PAI 控制台 > Model Gallery 下,选择 Embedding 场景,部署 bge-m3 通用向量模型(与 Qwen3 兼容性最佳)。
2. 记录服务地址及 Token,用于后续知识库索引构建。
步骤二:LangStudio 配置服务连接
2.1 创建连接-Qwen3 模型服务
1. 通过 PAI 控制台 > 进入 LangStudio > 连接 > 模型服务,单击新建连接。
2. 关键参数:
- 模型名称: Qwen3-8B (需与部署名称一致)。
- 服务提供方:选择 PAI-EAS 模型服务,自动显示部署后的 base_url 和 api_key。
2.2 创建连接-Embedding 模型
1. 通过 PAI控制台 > 进入 LangStudio > 连接 > 数据库
2. 选择已部署的 bge-m3 模型,配置服务地址及密钥。
2.3 创建连接-联网搜索 IQS
1. 通过 PAI 控制台 > 进入 LangStudio > 连接 > 自定义连接
2. 填写 IQS 的 api_key,名称设为 IQS_Conn。
步骤三:构建知识库索引
1. 进入 LangStudio > 知识库索引,单击新建知识库索引。
2. 关键配置配置如下:
- 数据源 OSS 路径:填写知识库语料的 OSS 路径(如 oss://my-bucket/rag-data/)。
- 通用 Embedding 模型:选择步骤 1.2 中创建的 bge-m3 连接。
- 向量数据库:生产环境选择向量数据库-Milvus,测试环境选择 Faiss。
3. 启动索引构建,等待知识库构建任务完成。
步骤四:开发 Agent 应用流 & 调试与优化
4.1 开发 AI 应用流
1. 进入 LangStudio > 应用流 > 新建应用流,模板选择 “基于 Web 搜索和 RAG 的聊天助手”。
2. 关键节点配置:
- 节点-知识库检索:
- 索引名称:选择步骤三中创建的知识库。
- Top K:建议设置为5(根据知识库规模调整)。
- 节点-阿里云 IQS-联网搜索:
- 连接:选择`IQS_Conn`。
- 节点-大模型节点:
- 模型连接:选择步骤一的 Qwen3 模型服务。
- 系统提示词模板:可自定义,例如:
基于以下知识库内容和网络搜索结果,请用中文专业且简洁地回答用户问题:
- 知识库内容:{knowledge}
- 网络搜索结果:{web_results}
- 用户问题:{question}
4.2 Qwen3 思考模式切换 (快思考与慢思考)
Qwen3 支持混合推理形态模型,同时提供“推理模式”和“非推理模式”(慢思考与快思考模式)。可通过大模型节点的启用思考参数配置模型 来控制是否启用推理模式。
4.3 调试与优化
1. 运行测试:
- 输入测试问题(如“最新科创板上市规则有哪些变化?”),观察模型生成的回答质量。
- 运行完成后,可通过查看链路查看 Tracing 信息,分析 Qwen3 大模型整合 RAG 检索结果与网络搜索的结果相关性。
2. 优化策略:
- 知识库增强:若回答缺乏领域细节,扩充知识库语料并重建索引。
- 搜索过滤:在 IQS 中设置 time_period 参数,限定搜索时间范围(如 past_year)。
- 提示词调优:增加格式约束(如“分点回答”、“引用来源”等),提升结果可读性。
步骤五:模型服务部署与 API 调用
5.1 生产部署:
- 在 LangStudio > 应用流页面单击右侧-部署,选择新建服务 > EAS 资源组。
- 资源分配:建议至少2实例(HA),配置具备公网访问的 VPC。
5.2 PAI API 调用:
请求示例(Python):
import requests endpoint = "YOUR_EAS_ENDPOINT" payload = { "question": "解释量子计算对金融风险建模的影响", "history": [] # 支持多轮对话 } response = requests.post(endpoint, json=payload, headers={"Authorization": "Bearer YOUR_API_KEY"}) print(response.json()["answer"])
步骤六:监控与维护
- 应用流调试:使用 LangStudio 应用流中的运行对话框,输入所需查询的问题,观察查询结果内容。
- 日志查看监控:通过 PAI-EAS 控制台监控服务请求量、延迟及错误率。
- 知识库更新:定期上传新语料到 OSS,触发增量索引构建。
- LLM 模型升级:关注 Qwen3 版本更新,通过 Model Gallery 无缝替换新版本。
附录:常见问题
- Q:网络搜索结果不相关?
A:通过“查询链路”来查看 Tracing 联网信息是否正确。
相关链接
通过以上步骤,您可快速使用 LangStudio 构建基于 Qwen3 的高效增强 RAG+联网搜索的 AI 智能问题应用,满足专业场景需求。