对话阿里云吴结生:AI时代,云上高性能计算的创新发展

简介: 在阿里云智能集团副总裁,弹性计算产品线负责人、存储产品线负责人 吴结生看来,如今已经有很多行业应用了高性能计算,且高性能计算的负载正呈现出多样化发展的趋势,“当下,很多基础模型的预训练、自动驾驶、生命科学,以及工业制造、半导体芯片等行业和领域都应用了高性能计算。”吴结生指出。

Hyperion Research预计,云端HPC市场的增长速度将是本地服务器市场的两倍多,到2027年,云端HPC市场规模预计将超过140亿美元。


原先HPC(High performance computing,高性能计算)“高高在上”,几乎只应用在高精尖科研领域,但随着以AI代表的新一代数字技术的应用,HPC也在更多行业有了“大展拳脚”的机会,在企业侧的应用场景也越来越多。


从HPC到Cloud HPC


在阿里云智能集团副总裁,弹性计算产品线负责人、存储产品线负责人 吴结生看来,如今已经有很多行业应用了高性能计算,且高性能计算的负载正呈现出多样化发展的趋势,“当下,很多基础模型的预训练、自动驾驶、生命科学,以及工业制造、半导体芯片等行业和领域都应用了高性能计算。”吴结生指出。


阿里云智能集团副总裁,弹性计算产品线负责人、存储产品线负责人 吴结生


传统模式下,HPC因其独有的定位、复杂的架构,以及极高的运维难度,造成了成本高昂,且适配业务发展特性较差,这也让很多企业“望而却步”。


而当企业对于高性能计算的需求不断增加时,如何让更多企业“用得起”和“用得好”高性能计算成为行业面临的难题。


这时候,云计算就承担起了让HPC被更多企业,更便捷应用的重任。谈及Cloud HPC的优势时,吴结生告诉钛媒体APP,以云计算的模式应用高性能计算,具备了四个显著的优势:首先,是弹性的能力,通过云的方式,具有高度的弹性,可以弹性地分配、调用大规模资源,让企业获得的算力更高;其次,Cloud HPC具备异构计算的兼容性能力,以云的方式,可以对异构芯片之间的算力进行整合,兼容性更强;第三,Cloud HPC让用户具备了快速部署的能力;第四,与本地化的HPC相比,Cloud HPC具备了平台化的数据处理生态。


就数据处理能力,吴结生向钛媒体APP举例详细介绍到,以汽车研发为例,汽车研发的过程中需要用到仿真计算,仿真计算在预处理的过程中会产生数据,计算的过程中也会产生大量数据,如何将处于不同位置的数据“挪动”,整合到一起,就成为了传统HPC时代的难题。

Cloud HPC的出现很好的解决了这个问题,吴结生告诉钛媒体APP,通过弹性高性能计算集群,加上并行文件存储系统,可以免除数据的挪动,提升整个系统的能力,从而提升效率,缩短产品研发进程。因此可以看出,云上的高性能计算,具备借助整个云平台,将包括计算、存储、网络和一些安全方面的能力叠加起来的优势。


“按需制宜”


从目前应用趋势上来看,用户对于算力的需求的多样化的。这种情况下,显然单一的计算架构已经不能满足所有用户的需求。


“算力目前遇见的核心问题就是:计算架构的单一性与算力需求多样性之间的矛盾。”中国工程院院士邬江兴曾在2024年全国高性能计算学术年会上公开表示,“算力需求是多样性的,面对不同的场景、不同的计算环境、不同的任务类型、不同的性能需求,需要不同的算力架构。可是计算架构是单一的,目前的情况走下去,会有两种发展结果:一个是‘削足适履’,一个是各自为政,都不是好的发展结果。”


这样的算力困境同样发生在高性能计算领域,吴结生告诉钛媒体APP,多元化的负载需求,也对高性能计算提出了新的挑战。面对这些挑战,吴结生认为,企业需要通过多样化的产品、系统架构和技术方案,来满足不同负载对计算能力、存储性能、网络带宽等方面的差异化需求。


从需求侧出发,根据不同的业务场景,以及场景下算力的耦合度和数据的密集度可以大致划分为松耦合、紧耦合,吴结生告诉钛媒体APP,算力越耦合,就越需要高性能的网络连接能力,针对不同的业务场景,用户应该选择相对应的产品架构,这样才能在确保计算效率的同时,降低使用算力的成本。



在松耦合场景下,用户对于延迟的要求不是很高,对算力的类型也没有要求(比如对CPU代系没有强要求)。但是,该场景下,用户对性价比的要求更高,他们需要以更低的成本,更高的弹性,实现算力的全局调度,“阿里云借助自身积累的云资源规模,加之创新性的CIPU(云基础设施处理器)架构,提供E-HPC Instant来服务‘松耦合’的高性能计算负载,”吴结生指出,“通过E-HPC Instant对云上所有可用区的资源进行不同代系的算力抽象,并实现全局的资源分配和任务调度,满足用户对于弹性的需求。”


吴结生以制药行业为例分享了具体松耦合场景中的架构经验,他表示,在该场景下,客户有高吞吐量的弹性计算需求—随时需要大规模的CPU、GPU计算资源,计算峰值大、任务并发度高。阿里云的产品为客户提供了弹性按需的海量资源:智能调度底层大规模基础设施,任意时刻提供10万核以上的资源保障,优化大并发下计算和存储性能,显著提高药物研发效率,只需原来1/3的成本。


在紧耦合场景下,大多业务场景都存在计算任务多、规模大、计算时间紧张等特点,这种场景更为适合Cloud HPC,利用云资源的规模大、并行计算能力强等特点,满足企业对于高性能计算的需求。


针对此,阿里云推出了高性能计算平台—E-HPC平台,可以同时提交AI作业和传统HPC的作业,在资源管理层,同时管理了HPC的Slurm集群和AI的ACK(K8s)集群,作业管理层根据作业类型将AI作业和HPC作业分别投递到相应的集群上运行。


以汽车行业为例,目前的研发周期需要效率非常高,本地 HPC 集群硬件资源老化,严重影响业务进度,并且业务流程割裂:线下前后处理与线上求解计算的流程割裂,数据挪动频繁。“如果建一个1000 台机器这样的一个超算集群,传统方式肯定是几个月。那么今天在云上10 万核的需求我们可以在不超过一天之内建好。并且客户可以利用云的资源规模去做弹性的资源分配。在云上可以获取丰富的以及最新代际的算力形态,满足各种不同工作任务的这种负载的需求。”


在吴结生看来,E-HPC高性能计算服务落地过程中最大的挑战是——任务的计算实例之间需要紧耦合的通信。面对这个痛点,阿里云首先以CIPU作为所有底层物理资源的连接器,将底层物理资源统一纳管,提高计算效率,进而加速IO效率,通过eRMDA网络大幅提升紧耦合的HPC工作负载性能,最终实现以更低成本,更快速度的交付能力。


除此之外,吴结生告诉钛媒体APP,E-HPC还通过多层次的网络拓补感知与弹性扩容的能力,快速弹出网络拓扑上靠近的ECS计算集群,适应紧耦合HPC作业极致性能要求。


AI时代,云上HPC如何更好用?


ChatGPT的横空出世让AI又一次成为了科技圈关注的焦点。这一轮的AI的火爆在吴结生看来,也将彻底改变所有行业,“当下几乎所有的行业龙头公司都已经是数据公司了,未来都将会是数据+AI的公司。”吴结生告诉钛媒体APP。


“大模型的训练场景是比较传统的高性能计算在云上的一种重新复兴,我们称之为极致紧耦合的场景。”吴结生将大模型厂商的算力需求总结为:这些企业需要稳定大规模高性能的训练算力,并需要弹性拓展的推理算力,还需要数据处理的速度和弹性能力,以提高资源利用率并降低成本。


当前大模型的预训练需要集群化,构建万卡甚至更大的集群,且整个集群需要是一个庞大的“整体”,若其中一台机器出问题,都会造成训练中断。“大模型的训练就像是一排人两个、两个的将腿绑在一起,共同前进,这种并行的方式,一旦有一个人反应慢了或者倒了以后,可能整个队伍的前进速度就被拖累了。”吴结生以一个生动的比喻比拟了大模型的训练过程。“让每张GPU卡,每台机器都以相同的‘步伐’前进,才能提升整体的模型训练效率。”吴结生如是说。


为了实现上述所描述的“相同步伐”,阿里云灵骏集群采用 HPN 7.0 的网络架构,通过一系列的创新来支持更大的规模、更优的效率和更高的稳定性:一方面,阿里云为每台机器 3.2T 的 RDMA 的计算连接,让每台服务器之间的通讯更顺畅;另一方面,后端 GPU 互联网络和前端网络分离,减少存储的访问对算力通信的干扰,进而提升了整体GPU集群的计算效率。


这样的“相同步伐”也对存储能力提出更高的要求。在大规模的模型训练过程中,经常会遇到各种原因而被迫中断。“我们的头部大模型客户提出了连续的、分钟级的Checkpoint的读写要求,这对存储的吞吐要求是非常高的,这是为什么在阿里云灵骏智算服务里面,提供了高性能的并行文件系统CPFS,满足训练和推理的超高性能和成本优化要求。通过CPFS,网络的双上联、系统监控、自定位和自愈等优化,降低中断次数和时间,使得我们训练时长的有效率高达99%,” 吴结生指出。


无论是松耦合、紧耦合,还是极致紧耦合,面对多元化算力需求,CIPU 是阿里云基础设施的基石,是差异化竞争力的主要来源之一。通过CIPU架构,可以实现0虚拟化开销,让企业能更充分的利用CPU、GPU资源,从而减少开销。除此之外,CIPU架构还通过硬件加速的方式,进一步提升IO和存储性能,“目前,阿里云已经推出了2.0版本的CIPU架构,整机稳定性提升20%,带宽性能可达400Gbps,VPC可达6000万pps,弹性RDMA可达5000万message/s,存储性能可达360万IOPS,50GB/s,这些性能都达到了业内领先水平。”吴结生指出。


当下,每一家公司都是一个数据公司,很快每一家公司都会是一家数据+AI的公司,云计算一直在践行 Scaling Law,高性能计算也将焕发新的动能,云计算提供的规模化、高性能、可扩展的算力与存力,会帮助企业在进行业务规模的扩展的同时,应对好数据规模的扩展,充分使用好AI模型以及基于模型的各类应用。我们也期待看到,云计算厂商可以不断创新,提供多元化的产品组合,帮助企业在不同负载场景中落地应用,实现智能化创新。


本文首发于钛媒体APP,作者|张申宇


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
16天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
10天前
|
人工智能 架构师
活动火热报名中|阿里云&Elastic:AI Search Tech Day
2024年11月22日,阿里云与Elastic联合举办“AI Search Tech Day”技术思享会活动。
153 2
|
10天前
|
存储 人工智能 大数据
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
15天前
|
人工智能
热门 新 1024 云上见 AI大模型助力客户对话分析 2000个智能台灯等你来领
热门 新 1024 云上见 AI大模型助力客户对话分析 2000个智能台灯等你来领
53 3
|
14天前
|
人工智能 Kubernetes 云计算
第五届CID大会成功举办,阿里云基础设施加速AI智能产业发展!
2024年10月19日,第五届中国云计算基础架构开发者大会(CID)在北京朗丽兹西山花园酒店成功举办。本次大会汇聚了来自云计算领域的众多精英,不同背景的与会者齐聚一堂,共同探讨云计算技术的最新发展与未来趋势。
|
14天前
|
人工智能 Kubernetes 云计算
第五届CID大会成功举办,阿里云基础设施加速AI智能产业发展!
第五届中国云计算基础架构开发者大会(CID)于2024年10月19日在北京成功举办。大会汇聚了300多位现场参会者和超过3万名在线观众,30余位技术专家进行了精彩分享,涵盖高效部署大模型推理、Knative加速AI应用Serverless化、AMD平台PMU虚拟化技术实践、Kubernetes中全链路GPU高效管理等前沿话题。阿里云的讲师团队通过专业解读,为与会者带来了全新的视野和启发,推动了云计算技术的创新发展。
|
15天前
|
机器学习/深度学习 人工智能 弹性计算
阿里云AI服务器价格表_GPU服务器租赁费用_AI人工智能高性能计算推理
阿里云AI服务器提供多种配置选项,包括CPU+GPU、CPU+FPGA等组合,支持高性能计算需求。本文汇总了阿里云GPU服务器的价格信息,涵盖NVIDIA A10、V100、T4、P4、P100等多款GPU卡,适用于人工智能、机器学习和深度学习等场景。详细价格表和实例规格见文内图表。
|
5天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
29 1
|
7天前
|
机器学习/深度学习 人工智能 算法
AI在医疗领域的应用与挑战
本文探讨了人工智能(AI)在医疗领域的应用,包括其在疾病诊断、治疗方案制定、患者管理等方面的优势和潜力。同时,也分析了AI在医疗领域面临的挑战,如数据隐私、伦理问题以及技术局限性等。通过对这些内容的深入分析,旨在为读者提供一个全面了解AI在医疗领域现状和未来发展的视角。
36 10