部署AI大模型,为何必须建立向量数据库和其他知识库?

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
简介: 人工智能将继续快速发展,尤其是在语言模型领域,这些进步有望以前所未有的方式进行变革。

     生成式人工智能,特别是大语言模型(LLM,large language models),将在软件开发等方面发挥关键作用。


     对于在机器学习操作方面打下基础、对于企业有效部署和扩展语言模型,生成式人工智能的广泛使用可谓至关重要。在这个未知的领域,不当的管理可能会引发工作流程出现难以处理的复杂性。为了开发和扩展企业级大语言模型,成功的机器学习操作计划是必须的,需要始终如一地部署机器学习模型,用标准化的流程和控制措施监控模型的变化、数据和特征质量。


     企业应该能够复制和重新训练机器学习模型,通过质量保证和治理流程进行部署,从而无需大量人工工作或重写,应该确保机器学习基础设施是有弹性的,比如保证多区域可用性和故障恢复、持续扫描网络漏洞、并对其加以妥善管理,当这些工作就位之后,大语言模型还会面临更复杂的挑战,需要细致入微的方法和考虑,包括基础设施、能力、风险解决方案和人才储备。


     使用传统机器学习模型进行推理,通常涉及将模型打包为容器,并将其部署在推理服务器上。随着对模型需求的增加,比如更多的使用请求、更多的客户和更多的运行决策,扩展模型所需要做的就是添加更多的容器和服务器,在大多数企业的设置中,CPU 可以很好地进行传统模型的推理。但是,托管大语言模型是一个复杂得多的过程,其需要额外的考量。


     大语言模型由 token 组成,即文本的基本单元,模型用它来生成类似人类的语言。它们通常基于先前生成的标记,预测的方式是以自回归的方式逐个标记,直到到达一个停止词。这个过程很快就会变得很麻烦:生成 token 的过程要根据模型、任务、语言和计算资源而变化。部署大语言模型的工程师不仅需要基础设施经验,例如在云上部署容器,还需要了解最新的技术以保持推理成本可控,并能满足性能服务等级协议。


     在企业环境中部署大语言模型,意味着必须建立向量数据库和其他知识库,并让它们与文档存储库和语言模型实时协同工作,以产生合理的、与上下文相关的准确输出。


     例如,零售商可以使用大语言模型通过消息传递接口与客户进行对话。该模型需要访问存有实时业务数据的数据库,以调用最近的交互信息、产品目录、对话历史、退货政策、最新促销和广告、客户服务指南和常见问题的解答。


     这些知识库正在越来越多地发展为矢量数据库,以便通过矢量搜索和索引算法对查询进行快速检索。


(来源:AI 生成)


     大语言模型还面临一个额外的挑战:针对特定的企业任务进行微调以获得最佳性能,大型企业级语言模型可能有数十亿个参数,这需要使用比传统机器学习模型更加复杂的方法,包括具有高速网络接口的持久计算集群、用于训练以及微调的 GPU 等硬件加速器。一旦训练完毕,这些大语言模型还需要多 GPU 节点来进行内存优化和分布式计算的推理,为了满足计算需求,企业需要在专门的 GPU 集群或其他硬件加速器上进行更广泛的投资, 这些可编程硬件设备可以被定制,以便实现特定的计算能力,比如矩阵向量运算。而公共云基础设施是这些集群的重要推动者。


风险管控,在模型的整个生命周期中是至关重要的。可观察性、日志记录和操作追踪,是机器学习操作过程的核心。它们有助于监控模型发布后的准确性、性能、数据质量和漂移,但是还需要考虑额外的基础设施层。大语言模型可能会产生“幻觉”,它们偶尔会输出错误的内容,企业需要适当的保护措施,比如规定好特定的格式或策略,以确保大语言模型在真实应用中返回可接受的回答。


     传统的机器学习模型依赖于定量的统计方法,来解决模型不准确和使用时的漂移,对于大语言模型来说,这会变得更加主观,它可能涉及到对模型输出进行定性评分,然后在带有预设护栏的 API 上运行它,以确保得到一个可接受的答案。


     企业对大语言模型的治理将是一门艺术和科学,许多组织仍在学习如何将它们纳入可操作的风险阈值。随着新进展的迅速出现,尝试开源和商业解决方案是明智的,这些解决方案可以针对特定用例和治理需求进行定制,而这就需要一个非常灵活的机器学习平台,特别是以高度抽象为基础的控制台,并与更广泛的生态系统保持同步,而不会影响其用户和应用程序,因此构建一个可扩展的、管理良好的、具有高抽象水平和多租户的平台控制台,对于满足这些需求至关重要。


     根据训练数据规模和生成的 token 的不同,大语言模型的性能可能会有很大差异,训练或微调非常大的模型,并在真实环境中大规模地为它们服务,是一项重大的科学挑战和工程挑战。这要求企业必须招聘和留住大量的人工智能专家、工程师和研究人员。 例如,对于一个向数万名员工提供服务的虚拟助手来说,当为其部署大语言模型和矢量数据库时,意味着需要将各种领域的工程师聚集在一起,还需要部署量身定制的提示(prompt),以提供准确的答案,而这需要复杂的专业知识。


     此外,人工智能专家的能力储备也需要跟上最新的发展,以便建立和微调模型。任何人工智能项目的长期成功都涉及到将数据科学、研究、设计、产品、风险、法律和工程专家结合起来,这些人才和经验会将人类用户置于中心。


     虽然企业大语言模型仍处于早期阶段,新的技术能力每天都在发展,但成功的关键之一是拥有坚实的机器学习设施和人工智能基础设施。人工智能将继续快速发展,尤其是在语言模型领域。这些进步有望以前所未有的方式进行变革。与任何新兴技术一样,潜在的好处必须与管理良好的操作实践和风险管理相平衡。有针对性地、全方面地考虑整个模型的机器学习操作战略,可以提供一种全面的方法,从而加速实现更广泛的人工智能功能。


免费体验阿里云高性能向量检索服务:https://www.aliyun.com/product/ai/dashvector

相关实践学习
使用CLup和iSCSI共享盘快速体验PolarDB for PostgtreSQL
在Clup云管控平台中快速体验创建与管理在iSCSI共享盘上的PolarDB for PostgtreSQL。
AnalyticDB PostgreSQL 企业智能数据中台:一站式管理数据服务资产
企业在数据仓库之上可构建丰富的数据服务用以支持数据应用及业务场景;ADB PG推出全新企业智能数据平台,用以帮助用户一站式的管理企业数据服务资产,包括创建, 管理,探索, 监控等; 助力企业在现有平台之上快速构建起数据服务资产体系
相关文章
|
19天前
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
124690 25
|
14天前
|
人工智能 自然语言处理 API
深入浅出 LangChain 与智能 Agent:构建下一代 AI 助手
深入浅出 LangChain 与智能 Agent:构建下一代 AI 助手
深入浅出 LangChain 与智能 Agent:构建下一代 AI 助手
|
24天前
|
人工智能 Serverless 开发者
“黏土风格”创意AI函数计算FC部署 ComfyUI实现AI生图
使用阿里云函数计算FC,快速部署AI绘画工具ComfyUI,参与黏土创意AI活动,体验高质量图像生成并有机会赢取丰厚礼品。
550 11
“黏土风格”创意AI函数计算FC部署 ComfyUI实现AI生图
|
14天前
|
弹性计算 人工智能 Kubernetes
基于云效 AppStack,5 分钟搞定一个 AI 应用的开发和部署
区别于传统的流水线工具,本实验将带你体验云效应用交付平台 AppStack,从应用视角,完成一个 AI 聊天应用的高效交付。
55354 19
|
2天前
|
人工智能 API 数据安全/隐私保护
云效+SAE,5分钟搞定一个AI 应用的开发和部署
本实验将带你体验云效应用交付平台AppStack+Serverless 应用交付引擎 SAE,从应用视角,完成一个AI聊天助手的高效交付。
116 0
|
1月前
|
人工智能 Serverless 文件存储
“黏土风格”轻松拿捏,基于函数计算部署 ComfyUI实现AI生图
使用阿里云函数计算FC,快速部署AI绘画工具ComfyUI,体验高质量图像生成。新用户可享180元试用额度,包括GPU、vCPU、内存和调用次数。开通FC和文件存储NAS,通过应用中心选择ComfyUI模板创建应用。
46739 8
“黏土风格”轻松拿捏,基于函数计算部署 ComfyUI实现AI生图
|
9天前
|
人工智能 JSON Serverless
AI “黏土画风”轻松拿捏,手把手带你云端部署 ComfyUI
ComfyUI 是一款基于节点工作流稳定扩散算法的全新 WebUI,相对于传统的 WebUI,ComfyUI 的部署和学习曲线较陡峭,函数计算基于 Serverless 应用中心开发“ComfyUI 应用模版”,简化开发者的部署流程,帮助简单、快捷实现全新而精致的绘画体验,点击本文查看一键部署 ComfyUI 的方法。
15051 2
|
10天前
|
人工智能 中间件 Serverless
基于函数计算FC 部署 ComfyUI实现AI生图 的优势
【6月更文挑战第17天】基于函数计算FC 部署 ComfyUI实现AI生图 的优势
基于函数计算FC 部署 ComfyUI实现AI生图 的优势
|
24天前
|
弹性计算 人工智能 Kubernetes
基于云效 AppStack,5分钟搞定一个 AI 应用的开发和部署
实验介绍了如何使用云效应用交付平台AppStack快速初始化和部署AI聊天应用.
898 3
|
12小时前
|
人工智能 小程序 机器人
开源一个RAG大模型本地知识库问答机器人-ChatWiki
准备工作 再安装ChatWiki之前,您需要准备一台具有联网功能的linux服务器,并确保服务器满足最低系统要求 • Cpu:最低需要2 Core • RAM:最低需要4GB 开始安装 ChatWiki社区版基于Docker部署,请先确保服务器已经安装好Docker。如果没有安装,可以通过以下命令安装:

热门文章

最新文章