大模型落地的关键:如何用 RAG 打造更智能的 AI 搜索——阿里云 AI 搜索开放平台

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
OpenSearch LLM智能问答版免费试用套餐,存储1GB首月+计算资源100CU
简介: 本文分享了大模型落地的关键:如何用阿里云 AI 搜索开放平台 打造更智能的 AI 搜索。

——已获知乎作者【小小将】授权转载

近几年,大语言模型(LLM)取得了突破性进展。然而,尽管这些大模型在各种任务中展现出了强大的语言理解与生成能力,也存在一些问题,其中最为突出的是幻觉问题以及知识时效性的问题

一、幻觉问题

幻觉问题是指大模型在生成文本过程中,可能会输出与真实信息不符甚至完全虚构的内容。这种现象不仅降低了模型输出的可信度,而且在一些关键领域(如医疗、金融、法律等)容易导致误导性决策。与此同时,大模型在知识更新上的滞后性问题也十分明显。

由于大多数大模型的训练数据存在一定的时效性,其在面对最新事件、最新数据时可能无法提供及时、准确的信息反馈。这种知识时效性问题使得模型在处理动态变化的信息时就存在明显局限。

比如我询问 DeepSeek 关于谷歌 Gemini 2.0 模型的发布问题,由于不在它的知识范围内,它的回答就会出现幻觉,出现一些事实性的错误:

但是如果我加上“联网搜索”,它就能够正确回答:

二、如何解决幻觉问题

而这里的“联网搜索”其实就是应用了检索增强生成(Retrieval-Augmented Generation, RAG)技术。 RAG 的核心思想在于:在生成回答之前,通过高效的信息检索系统先获取相关的背景知识和事实数据,再将这些检索到的信息作为生成模型的上下文提示,从而引导生成过程向更加准确、真实的方向发展,减少大模型的幻觉问题。RAG 可以用于构建专业领域的问答系统,一个完整的 RAG 流程如下所示,这里我们可以把专业领域的数据构建成知识数据库,这些知识库数据可以通过检索增强来提供给 LLM 来生成正确的回答。

这里,可以看到一套完整 RAG 系统需要很多组件,不仅涉及到专业的数据处理工具,而且还依赖检索引擎以及检索增强工具,对开发者而言技术门槛比较高。而阿里云 AI 搜索开放平台正是为解决这一痛点而生。平台围绕智能搜索及 RAG 场景,将算法服务以组件化形式开放,涵盖文档解析、向量化、召回排序、大模型服务等全链路能力。开发者无需从零构建基础设施,只需按需选择组件,即可快速搭建高性能、低成本的 RAG 应用。 

三、阿里云 AI 搜索开放平台

具体来说,阿里云 AI 搜索开放平台首先包含一套完整的用于处理知识库数据的工具,包括文档解析服务、图片解析服务、文档切片服务以及多语言向量模型

1、文档解析服务:

可以从 PDF、DOC、HTML、TXT 等格式文档中提取结构化信息,而图片解析服务可以使用多模态大模型或 OCR 能力解析图片数据中为文字信息。

2、文档切片服务:

是基于语义、段落结构以及指定规则对文档进行切分,而多语言向量模型可实现文本向量化处理以用于后面的检索。

当然除了排序服务,平台还提供了:

3、查询分析服务:

可对用户输入的查询内容进行意图识别、相似问题扩展、NL2SQL 处理等,有效提升 RAG 场景中检索问答效果。而且,平台也提供了检索引擎,支持向量检索、文本检索引擎。

4、免费体验:

你可以在阿里云 AI 搜索开放平台体验中心直接体验这些服务,比如这里我使用文档解析服务来解析Qwen2.5 的技术报告:

解析完成后可以文档切片服务对文档进行切分:

然后你可以通过平台的排序服务来进行查询,模型能够输出和 query 相关性更高的内容:

5、多种大语言模型服务:

阿里云 AI 搜索开放平台的另外一大亮点是内置了多种大语言模型服务,包含 DeepSeek 全系模型(含R1/V3及7B/14B蒸馏版本)、通义系列模型(通义千问-Turbo、通义千问-Plus、通义千问-Max 大模型),以及专为 RAG 打造的 OpenSearch-通义千问-Turbo 大模型。

而且,平台最近还新增了阿里最新发布的 QwQ-32B 推理模型,该模型在数学、代码以及部分通用指标上达到 DeepSeek-R1 满血版水平,但是模型尺寸更小(32B vs 671B),性价比更高,在阿里云上,QwQ-32B 输出 token 价格是0.006元/千tokens,远低于 DeepSeek-R1 满血版的0.016元/千tokens。

如果你想要更高并发、更低延迟的推理服务,你还可以将阿里云 AI 搜索开放平台和 ModelScope 中的模型进行独立部署。此外,平台还提供了联网搜索服务,可以作为私有知识库的补充,结合大语言模型给出更丰富的回答。而且阿里云AI搜索开放平台V3.3还集成了数据科学工作台(Data Science Workbench)的功能,支持 notebook,为用户提供了一站式的云端开发环境,将代码编写、调试、运行与阿里云AI搜索开放平台的核心能力无缝结合,大幅降低开发门槛,加速智能搜索应用的构建与验证。

四、如何快速构建企业知识库问答

可以看到,阿里云AI搜索开放平台旨在提供丰富的开箱即用服务来降低开发者构建 AI 搜索系统的门槛。除此之外,阿里云还提供了丰富的企业级 AI 搜索应用,包括 LLM 智能问答、行业语义搜索、日志检索 Severless 等六大个开箱即用、高性价比的场景化产品方案。其中 LLM 智能问答版可以提供一站式开箱即用的检索增强生成(RAG)方案,支持丰富数据格式的快速导入,构建包含对话、链接、图片在内的多模态对话式搜索服务,帮助开发者快速搭建 RAG 系统。这里给出一个基于 LLM 智能问答版来快速构建企业知识库问答,首先要创建一个 LLM 智能问答版实例:

然后进行企业知识库配置,可以基于文件导入,也可以基于网页链接导入以及网站导入:

导入企业知识库数据后,如果能在数据配置界面的数据查询栏下查看导入的文档,此时说明就成功构建了一个企业专属知识库。

点击左侧导航栏的“问答测试”选项,可以快速测试该知识库的问答效果。在对话框中输入与企业相关的问题,模型会从知识库中检索相关信息,并基于这些信息生成相应的回答。

所以你看到,使用 LLM 智能问答版服务可以非常快地来构建一个专属的企业级知识库问答系统。

最后我想说,RAG 技术是大模型落地成败的关键:它通过实时检索外部知识,有效解决“幻觉”和知识陈旧问题。而阿里云AI搜索开放平台将 RAG 全链路拆解为“即插即用”的组件。开发者无需懂算法就可以像拼乐高一样调用文档解析、多模态理解、QwQ 模型等服务来快速构建专业的基于 RAG 的 AI 系统。从技术探索到价值创造,阿里云正重新定义企业拥抱 AI 的“最优路径”。感兴趣的,不妨立即行动去阿里云 AI 搜索开放平台去体验一把。


相关文章
|
24天前
|
存储 人工智能 搜索推荐
如何用大模型+RAG 给宠物做一个 AI 健康助手?——阿里云 AI 搜索开放平台
本文分享了如何利用阿里云 AI 搜索开放平台,基于 LLM+RAG 的系统框架,构建“宠物医院AI助手”的实践过程。
230 14
|
23天前
|
人工智能 自然语言处理 搜索推荐
AI 搜索开放平台重磅发布:Qwen3 模型上线啦
阿里云AI搜索开放平台重磅发布最新Qwen3模型,为企业和开发者提供全栈智能搜索解决方案。Qwen3作为最新一代大模型,在推理、多语言支持和Agent能力上表现卓越。用户可通过三步快速体验Qwen3服务,助力业务在AI时代抢占先机。
187 12
|
14天前
|
人工智能 自然语言处理 文字识别
阿里云 AI 搜索开放平台新增:服务开发能力
阿里云 AI 搜索开放平台新发布:服务开发能,可通过集成 dsw 能力并新增 notebook 功能,进一步提升用户编排效率。
115 0
|
16天前
|
传感器 人工智能 算法
场景入选|TsingtaoAI基于DeepSeek的具身智能实训入选河北省垂直大模型应用场景名单
河北省网络社会组织联合会正式公布《垂直大模型应用场景征集结果名单》,TsingtaoAI自主研发的“基于DeepSeek的具身智能高校实训解决方案——从DeepSeek+机器人到通用具身智能”成功入选河北省15个标杆应用场景。这一成果标志着TsingtaoAI在具身智能与大模型融合领域的技术创新与落地能力获得政府及行业权威认可,同时也为人工智能技术与实体产业深度融合提供了可复制的示范案例。
42 0
|
21天前
|
人工智能 自然语言处理 数据库
RAG 是什么?一文带你看懂 AI 的“外挂知识库”
RAG(检索增强生成)是一种结合信息检索与文本生成的技术,通过“先查资料后回答”机制解决传统模型知识更新滞后及幻觉问题。其核心流程包括:1) 检索:从外部知识库中查找相关文本片段;2) 生成:将检索结果与用户查询输入给大语言模型生成回答。RAG利用Embedding模型将文本转为向量,通过语义匹配实现高效检索,提供更准确、实时的回答。
199 15
RAG 是什么?一文带你看懂 AI 的“外挂知识库”
|
2天前
|
SQL 人工智能 自然语言处理
阿里云 AI 搜索开放平台新功能发布:新增GTE自部署模型
阿里云 AI搜索开放平台正式推出 GTE 多语言通用文本向量模型(iic/gte_sentence-embedding_multilingual-base)
|
9天前
|
机器学习/深度学习 传感器 算法
基于多模态感知与深度学习的智能决策体系
本系统采用“端-边-云”协同架构,涵盖感知层、计算层和决策层。感知层包括视觉感知单元(800万像素摄像头、UWB定位)和环境传感单元(毫米波雷达、TOF传感器)。边缘侧使用NVIDIA Jetson AGX Orin模组处理多路视频流,云端基于微服务架构实现智能调度与预测。核心算法涵盖人员行为分析、环境质量评估及路径优化,采用DeepSORT改进版、HRNet-W48等技术,实现高精度识别与优化。关键技术突破包括跨摄像头协同跟踪、小样本迁移学习及实时推理优化。实测数据显示,在18万㎡商业体中,垃圾溢流检出率达98.7%,日均处理数据量达4.2TB,显著提升效能并降低运营成本。
56 7
|
17天前
|
边缘计算 弹性计算 人工智能
魔搭社区大模型一键部署到阿里云边缘云(ENS)
随着大模型技术的快速发展,业界的关注点正逐步从模型训练往模型推理 转变。这一转变不仅反映了大模型在实际业务中的广泛应用需求,也体现了技术优化和工程化落地的趋势。
123 7
|
23天前
|
人工智能 搜索推荐 API
RAG vs. MCP: 你不知道你需要的 AI 充电接口
本文通过“充电接口”比喻,对比了两种AI技术:RAG(特定充电口)和MCP(通用充电口)。RAG像专用数据线,每次需连接外部数据库检索信息,适合动态查询;MCP则似USB-C,依靠内置记忆提供快速、个性化响应,适用于长期交互。两者各有优劣,RAG灵活但效率低,MCP高效却可能缺乏最新数据。未来可能是两者的结合:MCP负责上下文记忆,RAG获取最新资讯,实现更自然的AI对话体验。文章还探讨了如何用Apipost设计适配两者的API,助力AI系统开发。
|
7天前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
261 68