通过阿里云计算巢部署NVIDIA NIM,加速企业大语言模型SaaS化

简介: 在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人,计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态PDF数据提取,网络安全流数据过滤、处理和分类优化等工作流,正在无缝集成和运行在定制化的企业AI应用,企业还能够基于专有业务数据和用户反馈数据,不断优化AI应用。

【阅读原文】戳:通过阿里云计算巢部署NVIDIA NIM,加速企业大语言模型SaaS化

 

在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人,计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态PDF数据提取,网络安全流数据过滤、处理和分类优化等工作流,正在无缝集成和运行在定制化的企业AI应用,企业还能够基于专有业务数据和用户反馈数据,不断优化AI应用。

 

同时,企业也面临着如何高效、安全地部署LLM的挑战。阿里云计算巢基于NVIDIA加速计算技术,通过阿里云云市场为企业和开发者提供NVIDIA AI Enterprise软件套件,其包含了NVIDIA NIM™ Agent Blueprint、NVIDIA NIMNVIDIA NeMo™等企业级AI开发工作流和AI开发工具链。其中,NVIDIA NIM提供可靠、高性能的LLM推理服务,结合阿里云计算巢实现一站式云上部署,助力企业加速实现LLM的SaaS化。

 

本文以Llama3为例,介绍该方案的整体架构和部署方式。

 

 

 

 

NVIDIA NIM:

易于使用的预构建容器工具

 

 

 

NVIDIA NIM微服务是一套易于使用的预构建容器工具,目的是帮助企业客户在云、数据中心和工作站上安全、可靠地部署高性能AI模型。作为NVIDIA AI Enterprise的一部分,NIM具备以下核心优势:

 

安全、灵活的部署:NIM在不同环境的CUDA GPU加速基础设施和Kubernetes发行版中经过严格验证和基准测试,它支持企业在云、数据中心、工作站上安全可靠地部署高性能的AI推理,只需5分钟即可完成部署。

 

加速产品上市:企业通过预构建、持续维护的微服务,能够快速将产品推向市场,缩短开发周期。

 

开发者友好:开发者使用标准API和几行代码即可轻松将NIM集成到企业级AI应用程序中。

 

优化的推理引擎:NIM基于Triton™推理服务器TensorRTTensorRT-LLM和PyTorch等强大的推理引擎构建, 提供行业领先的吞吐率、延迟和token生成速度,确保服务响应更快。

 

企业级支持:NIM采用企业级基础容器构建,提供严格的验证、定期安全更新,适合企业生产环境部署。

 

 

 

 

阿里云计算巢:专为服务商

及其客户打造的云集成PaaS平台

 

 

 

阿里云计算巢服务是一个开放给企业应用服务商(包括:企业应用服务商、IT集成服务商、交付服务商和管理服务提供商等)及其用户的服务管理PaaS平台,提供软件上云的“一站式”解决方案。

 

阿里云计算巢能提供软件的交付、部署、运维流程标准化的服务,支持软件和资源的一体化交付,真正实现了软件的开箱即用。

 

阿里云计算巢服务集成了阿里云一系列底层产品能力,通过通用的应用管控框架、租户管理框架,帮助服务商提升服务的交付效率、管理效率和服务能力,在提升用户满意度的同时降低运营成本;并为用户提供了统一管理多种应用服务的平台,提升用户使用服务的效率和安全性,降低用户获取服务和管理服务的成本。

 

 

 

 

方案介绍

 

 

 

下图展示了通过阿里云计算巢快速部署NVIDIA NIM的整体架构。以Llama3为例,我们通过计算巢来创建、管理LLM推理服务:在阿里云容器服务ACK(容器服务Kubernetes版)集群上,我们使用阿里云ACK的云原生AI套件,集成开源推理服务框架KServe,来部署NVIDIA NIM。

 

同时,结合ACK的Prometheus和Grafana监控服务,快速搭建监控大盘,实时观测推理服务状态;利用NVIDIA NIM提供丰富的监控指标,如num_requests_waiting,配置推理服务弹性扩缩容策略。

 

这里列出的云上资源,以及阿里云弹性计算服务(ECS)、专有网络(VPC)等基础资源,都可以通过计算巢来轻松配置,一键拉起,最终实现一个云上高性能、可实时观测、极致弹性的大语言模型推理服务。用户只需要根据该服务创建实例,便可部署该服务。

 

图 1. 通过阿里云计算巢快速部署

NVIDIA NIM架构图

(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)

 

 

 

部署流程

 

 

 

1. 参考NVIDIA NIM文档,生成NVIDIA NGC API Key,用于访问需要部署的模型镜像。以本文用到的Llama-3-8B-Instruct为例,可以通过NVIDIA NGC目录来获取:

 

https://org.ngc.nvidia.com/setup/personal-keys

 

 

同时,请阅读并承诺遵守Llama模型的自定义可商用开源协议:

 

https://www.llama.com/llama-downloads/

 

2. 在阿里云计算巢服务目录中找到“基于NVIDIA NIM快速部署LLM模型推理服务”,并进入实例部署页面:

 

https://computenest.console.aliyun.com/service/detail/cn-hangzhou/service-8cd0757070b848a399e4

 

如下图所示,主要配置服务的基本信息和云上资源,以及第一步中获取的NVIDIA NGC API Key,需要填写在下图相应位置。

 

图 2. 在阿里云计算巢创建服务实例

(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)

 

 

因为服务部署在阿里云ACK集群之上,这里也包含了Kubernetes配置:

 

图 3. 阿里云ACK集群上Kubernetes

选项页面

(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)

 

 

3. 按照页面提示完成所有配置之后,点击下一步:确认订单,在这里确认第2步配置的服务实例信息和价格预览。

 

图 4. 确认服务实例信息和价格预览

(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)

 

 

部署过程中,用户需要创建和访问阿里云资源,当阿里云账号属于RAM账号时,需要开通以下权限,页面上也有开通这些权限的入口。

 

 

 

4. 点击立即创建,开始部署。过程中会涉及阿里云资源的创建、NIM模型镜像的拉取等。拉取过程的日志,可通过”点击资源tab->找到ACK集群->页面左侧的工作负载->无状态”来查看。部署完成后,进入服务实例详情查看使用说明。通过curl发送HTTP请求访问推理服务,修改content字段,便可自定义和推理服务交互的内容。

 

图 5. 服务实例详情页面截图

(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)

 

 

 

 

通过阿里云的云市场获取

NVIDIA AI Enterprise使用该方案

 

 

 

NVIDIA NIM是NVIDIA AI Enterprise的一部分,正式使用时须获得NVIDIA AI Enterprise的许可证授权。现在,企业用户可以通过阿里云云市场获取NVIDIA AI Enterprise来使用该方案。阿里云市场提供了概念验证(PoC)测试服务和购买NVIDIA AI Enterprise许可证,共两个下单页面。

 

PoC 测试服务

https://market.aliyun.com/products/201214006/cmgj00067281.html

 

提供90天NVIDIA AI Enterprise PoC License,暨90天免费试用,而使用时须支付阿里云计算资源的费用。

 

 

通过阿里云的云市场购买NVIDIA AI Enterprise许可证

https://market.aliyun.com/products/201214006/cmfw00067311.html

 

该页面提供的信息仅供参考,用户需要通过该页面的“NVIDIA服务咨询”钉钉来沟通采购,最终通过云市场官网推送下单链接获取NVIDIA AI Enterprise许可证。

 

 

 

 

总结

 

 

 

本文介绍了通过阿里云计算巢快速部署NVIDIA NIM的方案收益和部署方式,该方案充分利用了NIM的安全与高性能的无缝AI 推理功能,以及计算巢的软件一站式上云和交付能力,从而打造极致弹性、高性能、可实时观测的云上LLM推理服务。更多LLM上云部署参考示例请查看NVIDIA NGC目录

 

https://catalog.ngc.nvidia.com/?filters=nvidia_nim%7CNVIDIA+NIM%7Cnimmcro_nvidia_nim%2CresourceType%7CContainer%7Ccontainer

 

欢迎大家体验和试用。

 

查看更多计算巢服务 :https://computenest.aliyun.com


我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关文章
|
3月前
|
人工智能 弹性计算 自然语言处理
从0到1部署大模型,计算巢模型市场让小白秒变专家
阿里云计算巢模型市场依托阿里云弹性计算资源,支持私有化部署,集成通义千问、通义万象、Stable Diffusion等领先AI模型,覆盖大语言模型、文生图、多模态、文生视频等场景。模型部署在用户云账号下,30分钟极速上线,保障数据安全与权限自主控制,适用于企业级私有部署及快速原型验证场景。
|
2月前
|
人工智能 弹性计算 安全
阿里云计算巢私有化MCP市场:企业级AI工具的安全部署新选择
阿里云计算巢私有化MCP市场,依托阿里云弹性计算资源,提供自主可控的私有化部署方案。支持OpenAPI、SSE、StreamableHttp等多种接入方式,结合Higress云原生网关实现高效网络控制,所有工具直接部署在用户云账号下,5分钟极速部署,保障数据安全与使用便捷性。适用于对数据安全要求高、需访问内网资源、服务隔离及统一管理多种MCP工具的企业场景。
|
5月前
|
前端开发 Java 物联网
智慧班牌源码,采用Java + Spring Boot后端框架,搭配Vue2前端技术,支持SaaS云部署
智慧班牌系统是一款基于信息化与物联网技术的校园管理工具,集成电子屏显示、人脸识别及数据交互功能,实现班级信息展示、智能考勤与家校互通。系统采用Java + Spring Boot后端框架,搭配Vue2前端技术,支持SaaS云部署与私有化定制。核心功能涵盖信息发布、考勤管理、教务处理及数据分析,助力校园文化建设与教学优化。其综合性和可扩展性有效打破数据孤岛,提升交互体验并降低管理成本,适用于日常教学、考试管理和应急场景,为智慧校园建设提供全面解决方案。
376 70
|
6月前
|
数据可视化 JavaScript 前端开发
低代码神速开发:ToolJet 计算巢部署宝典 🚀
ToolJet 是一款开源低代码开发平台,支持可视化构建 Web 应用,提供多数据源连接、团队协作、灵活部署及自定义插件扩展等功能。基于 AGPL v3 开源协议,社区活跃度高(GitHub 25k+ Stars)。用户可通过计算巢快速部署 ToolJet 社区版。
|
6月前
|
人工智能 弹性计算 运维
|
7月前
|
弹性计算 API 开发者
DeepSeek R1上线阿里云云市场,可通过计算巢一键部署
DeepSeek R1上线阿里云云市场,可通过计算巢一键部署
|
7月前
|
人工智能 Kubernetes 安全
通过阿里云计算巢部署 NVIDIA NIM,加速企业大语言模型 SaaS 化
通过阿里云计算巢部署 NVIDIA NIM,加速企业大语言模型 SaaS 化
|
6月前
|
存储 监控 数据可视化
SaaS云计算技术的智慧工地源码,基于Java+Spring Cloud框架开发
智慧工地源码基于微服务+Java+Spring Cloud +UniApp +MySql架构,利用传感器、监控摄像头、AI、大数据等技术,实现施工现场的实时监测、数据分析与智能决策。平台涵盖人员、车辆、视频监控、施工质量、设备、环境和能耗管理七大维度,提供可视化管理、智能化报警、移动智能办公及分布计算存储等功能,全面提升工地的安全性、效率和质量。
115 0
|
4月前
|
人工智能 运维 安全
中企出海大会|打造全球化云计算一张网,云网络助力中企出海和AI创新
阿里云网络作为全球化战略的重要组成部分,致力于打造具备AI技术服务能力和全球竞争力的云计算网络。通过高质量互联网服务、全球化网络覆盖等措施,支持企业高效出海。过去一年,阿里云持续加大基础设施投入,优化海外EIP、GA产品,强化金融科技与AI场景支持。例如,携程、美的等企业借助阿里云实现业务全球化;同时,阿里云网络在弹性、安全及性能方面不断升级,推动中企迎接AI浪潮并服务全球用户。
755 8
|
9月前
|
存储 安全 网络安全
云计算与网络安全:技术融合的双刃剑
在数字化浪潮中,云计算如同一股不可阻挡的力量,推动着企业和个人用户步入一个高效、便捷的新时代。然而,随之而来的网络安全问题也如影随形,成为制约云计算发展的阿喀琉斯之踵。本文将探讨云计算服务中的网络安全挑战,揭示信息保护的重要性,并提供实用的安全策略,旨在为读者呈现一场技术与安全的较量,同时指出如何在享受云服务带来的便利的同时,确保数据的安全和隐私。
190 6

热门文章

最新文章