大模型落地的关键:如何用 RAG 打造更智能的 AI 搜索——阿里云 AI 搜索开放平台

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
OpenSearch LLM智能问答版免费试用套餐,存储1GB首月+计算资源100CU
简介: 本文分享了大模型落地的关键:如何用阿里云 AI 搜索开放平台 打造更智能的 AI 搜索。

——已获知乎作者【小小将】授权转载

近几年,大语言模型(LLM)取得了突破性进展。然而,尽管这些大模型在各种任务中展现出了强大的语言理解与生成能力,也存在一些问题,其中最为突出的是幻觉问题以及知识时效性的问题

一、幻觉问题

幻觉问题是指大模型在生成文本过程中,可能会输出与真实信息不符甚至完全虚构的内容。这种现象不仅降低了模型输出的可信度,而且在一些关键领域(如医疗、金融、法律等)容易导致误导性决策。与此同时,大模型在知识更新上的滞后性问题也十分明显。

由于大多数大模型的训练数据存在一定的时效性,其在面对最新事件、最新数据时可能无法提供及时、准确的信息反馈。这种知识时效性问题使得模型在处理动态变化的信息时就存在明显局限。

比如我询问 DeepSeek 关于谷歌 Gemini 2.0 模型的发布问题,由于不在它的知识范围内,它的回答就会出现幻觉,出现一些事实性的错误:

但是如果我加上“联网搜索”,它就能够正确回答:

二、如何解决幻觉问题

而这里的“联网搜索”其实就是应用了检索增强生成(Retrieval-Augmented Generation, RAG)技术。 RAG 的核心思想在于:在生成回答之前,通过高效的信息检索系统先获取相关的背景知识和事实数据,再将这些检索到的信息作为生成模型的上下文提示,从而引导生成过程向更加准确、真实的方向发展,减少大模型的幻觉问题。RAG 可以用于构建专业领域的问答系统,一个完整的 RAG 流程如下所示,这里我们可以把专业领域的数据构建成知识数据库,这些知识库数据可以通过检索增强来提供给 LLM 来生成正确的回答。

这里,可以看到一套完整 RAG 系统需要很多组件,不仅涉及到专业的数据处理工具,而且还依赖检索引擎以及检索增强工具,对开发者而言技术门槛比较高。而阿里云 AI 搜索开放平台正是为解决这一痛点而生。平台围绕智能搜索及 RAG 场景,将算法服务以组件化形式开放,涵盖文档解析、向量化、召回排序、大模型服务等全链路能力。开发者无需从零构建基础设施,只需按需选择组件,即可快速搭建高性能、低成本的 RAG 应用。 

三、阿里云 AI 搜索开放平台

具体来说,阿里云 AI 搜索开放平台首先包含一套完整的用于处理知识库数据的工具,包括文档解析服务、图片解析服务、文档切片服务以及多语言向量模型

1、文档解析服务:

可以从 PDF、DOC、HTML、TXT 等格式文档中提取结构化信息,而图片解析服务可以使用多模态大模型或 OCR 能力解析图片数据中为文字信息。

2、文档切片服务:

是基于语义、段落结构以及指定规则对文档进行切分,而多语言向量模型可实现文本向量化处理以用于后面的检索。

当然除了排序服务,平台还提供了:

3、查询分析服务:

可对用户输入的查询内容进行意图识别、相似问题扩展、NL2SQL 处理等,有效提升 RAG 场景中检索问答效果。而且,平台也提供了检索引擎,支持向量检索、文本检索引擎。

4、免费体验:

你可以在阿里云 AI 搜索开放平台体验中心直接体验这些服务,比如这里我使用文档解析服务来解析Qwen2.5 的技术报告:

解析完成后可以文档切片服务对文档进行切分:

然后你可以通过平台的排序服务来进行查询,模型能够输出和 query 相关性更高的内容:

5、多种大语言模型服务:

阿里云 AI 搜索开放平台的另外一大亮点是内置了多种大语言模型服务,包含 DeepSeek 全系模型(含R1/V3及7B/14B蒸馏版本)、通义系列模型(通义千问-Turbo、通义千问-Plus、通义千问-Max 大模型),以及专为 RAG 打造的 OpenSearch-通义千问-Turbo 大模型。

而且,平台最近还新增了阿里最新发布的 QwQ-32B 推理模型,该模型在数学、代码以及部分通用指标上达到 DeepSeek-R1 满血版水平,但是模型尺寸更小(32B vs 671B),性价比更高,在阿里云上,QwQ-32B 输出 token 价格是0.006元/千tokens,远低于 DeepSeek-R1 满血版的0.016元/千tokens。

如果你想要更高并发、更低延迟的推理服务,你还可以将阿里云 AI 搜索开放平台和 ModelScope 中的模型进行独立部署。此外,平台还提供了联网搜索服务,可以作为私有知识库的补充,结合大语言模型给出更丰富的回答。而且阿里云AI搜索开放平台V3.3还集成了数据科学工作台(Data Science Workbench)的功能,支持 notebook,为用户提供了一站式的云端开发环境,将代码编写、调试、运行与阿里云AI搜索开放平台的核心能力无缝结合,大幅降低开发门槛,加速智能搜索应用的构建与验证。

四、如何快速构建企业知识库问答

可以看到,阿里云AI搜索开放平台旨在提供丰富的开箱即用服务来降低开发者构建 AI 搜索系统的门槛。除此之外,阿里云还提供了丰富的企业级 AI 搜索应用,包括 LLM 智能问答、行业语义搜索、日志检索 Severless 等六大个开箱即用、高性价比的场景化产品方案。其中 LLM 智能问答版可以提供一站式开箱即用的检索增强生成(RAG)方案,支持丰富数据格式的快速导入,构建包含对话、链接、图片在内的多模态对话式搜索服务,帮助开发者快速搭建 RAG 系统。这里给出一个基于 LLM 智能问答版来快速构建企业知识库问答,首先要创建一个 LLM 智能问答版实例:

然后进行企业知识库配置,可以基于文件导入,也可以基于网页链接导入以及网站导入:

导入企业知识库数据后,如果能在数据配置界面的数据查询栏下查看导入的文档,此时说明就成功构建了一个企业专属知识库。

点击左侧导航栏的“问答测试”选项,可以快速测试该知识库的问答效果。在对话框中输入与企业相关的问题,模型会从知识库中检索相关信息,并基于这些信息生成相应的回答。

所以你看到,使用 LLM 智能问答版服务可以非常快地来构建一个专属的企业级知识库问答系统。

最后我想说,RAG 技术是大模型落地成败的关键:它通过实时检索外部知识,有效解决“幻觉”和知识陈旧问题。而阿里云AI搜索开放平台将 RAG 全链路拆解为“即插即用”的组件。开发者无需懂算法就可以像拼乐高一样调用文档解析、多模态理解、QwQ 模型等服务来快速构建专业的基于 RAG 的 AI 系统。从技术探索到价值创造,阿里云正重新定义企业拥抱 AI 的“最优路径”。感兴趣的,不妨立即行动去阿里云 AI 搜索开放平台去体验一把。


相关文章
|
1月前
|
云安全 人工智能 安全
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
阿里云 AI 安全护栏加入Dify平台,打造可信赖的 AI
|
1月前
|
人工智能 vr&ar UED
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
|
30天前
|
人工智能 自然语言处理 算法
【2025云栖大会】AI 搜索智能探索:揭秘如何让搜索“有大脑”
2025云栖大会上,阿里云高级技术专家徐光伟在云栖大会揭秘 Agentic Search 技术,涵盖低维向量模型、多模态检索、NL2SQL及DeepSearch/Research智能体系统。未来,“AI搜索已从‘信息匹配’迈向‘智能决策’,阿里云将持续通过技术创新与产品化能力,为企业构建下一代智能信息获取系统。”
285 9
|
30天前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
1月前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
351 24
|
1月前
|
机器学习/深度学习 人工智能 算法
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
NBA中国与阿里云达成合作,首发360°实时回放技术,融合AI视觉引擎,实现多视角、低延时、沉浸式观赛新体验,重新定义体育赛事观看方式。
285 0
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
|
1月前
|
存储 人工智能 OLAP
AI Agent越用越笨?阿里云AnalyticDB「AI上下文工程」一招破解!
AI上下文工程是优化大模型交互的系统化框架,通过管理指令、记忆、知识库等上下文要素,解决信息缺失、长度溢出与上下文失效等问题。依托AnalyticDB等技术,实现上下文的采集、存储、组装与调度,提升AI Agent的准确性与协同效率,助力企业构建高效、稳定的智能应用。
|
人工智能 大数据
从大数据到ET大脑-阿里云的超智能AI平台
首先声明本座并不是阿里粉丝,一直认为阿里的服务框架Dubbo跟Netflix的Spring Cloud相比,无论从社区成熟度还是功能组件上相比都差了一大截。 但就在刚刚过去的618年中大促中,阿里硬是将这个京东成立日变成了自己在上半年的购物狂欢节。
1973 0
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
390 29
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
440 27