阿里云飞天企业版获评2024年AI云典型案例

简介: 近日,由全球数字经济大会组委会主办、中国信息通信研究院和中国通信企业协会承办的“云·AI·计算国际合作论坛”作为2024全球数字经济大会系列活动之一,在北京举办。论坛以“智启云端,算绘蓝图”为主题,围绕云·AI·计算产业发展、关键技术、最佳实践等展开交流讨论。阿里云飞天企业版异构算力调度平台获评2024年AI云典型案例。

2024年12月2日 北京 - 近日,由全球数字经济大会组委会主办、中国信息通信研究院和中国通信企业协会承办的“云·AI·计算国际合作论坛”作为2024全球数字经济大会系列活动之一,在北京举办。论坛以“智启云端,算绘蓝图”为主题,围绕云·AI·计算产业发展、关键技术、最佳实践等展开交流讨论。阿里云飞天企业版异构算力调度平台获评2024年AI云典型案例,阿里云BizWorks获评软件智效领航者典型案例。

面向AI时代,阿里云以飞天企业版,为政企打造IT时代最开放的云。阿里云智能集团专有云统一算力运营平台资深技术总监茆亮亮在主论坛中表示:“在基础设施侧,飞天企业版建设Cloud AI核心能力,以云数智一体化的开放AI云平台,支持智算云平台的建设、管理和运维运营;同时赋能上层应用,加速大模型的构建与落地”。阿里云高级技术专家、专有云IaaS产品架构师范苑在“AI Cloud Infra & Platform论坛”分享了阿里云飞天企业版异构算力调度平台的技术架构与核心能力。

石叟演讲4.JPG

飞天企业版(Apsara Stack)是阿里云基于阿里云飞天云计算操作系统,为政企客户专属构建的资源和云管完全独立的企业级云平台。在10年发展沉淀基础上,飞天企业版以“一云多算”能力满足政企客户对云平台“云+AI”协同发展需求,为AI技术大规模在政企领域应用做好准备。论坛公布了飞天企业版异构算力调度平台获评2024年AI云典型案例,飞天企业版AI Studio、飞天企业版算力平台网络获评Al Cloud Infra& Platform典型案例,充分体现了行业对于飞天企业版在AI方面能力的认可。

- 飞天企业版异构算力调度平台:阿里云面向高性能算力数据中心场景自研的AI IaaS产品,可支持大规模高性能的算力管理平台。产品可将物理服务器通过云计算的方式按需弹性地为租户提供裸金属、容器等多样化的高性能算力集群服务,并高度集成高性能存储以及RDMA网络,真正做到一键创建高性能算力集群。平台开放兼容国内外主流芯片,提升用户供应链安全性,同时可纳管用户自有IDC,通过多样化的兼容性接入体系打造开放的算力接入平台。在稳定性方面,平台打造AI资源可视化、可诊断、可自愈体系,降低由于GPU等硬件高故障率对上层AI训练作业带来的影响,保障智算云平台稳定性。

- 飞天企业版AI Studio:承载飞天企业版全栈AI PaaS服务,面向AI开发者提供包含数据集管理、模型开发、模型训练、模型推理等在内的AI工程化平台。AI Studio支持多种异构算力机型的一云多芯下的资源管理和调度能力,平台可为多租户提供训推资源的管理和权限控制;支持交互式、可视化等多种模型训练方式,提供单机多卡、多机多卡并行训练,另外提供自动弹缩、断点续训的容错恢复能力。弹性推理支持离线、在线推理方式,自动根据负载弹性伸缩资源。AI加速方面,AI Studio提供了数据加速、镜像加速、软硬件兼容优化的训练和推理加速能力,为模型开发和部署提供高效、高速、稳定的开发平台。

- 飞天企业版算力平台网络:阿里云飞天企业版面向智算场景的新一代端网融合解决方案,可以同时承载智算、超算、普算业务,满足异构算力资源接入,并提供极致的转发性能,在端到端1:1收敛的情况下可以实现2层架构1.5w卡的接入能力;采用单/双上行、物理/虚拟双平面的接入能力实现训练作业网络故障场景业务降速不中断的能力;通过VPC+EVCP支持多元算力场景的多租能力,配合云平台灵活调度实现资源利用率最大化。

AI云典型案例-BMCP.JPG

本次论坛,阿里云还参与了百/千/万卡智算集群服务能力推进方阵启动仪式,以更加成熟的服务能力,为政企客户的大型智算集群保驾护航。在稳定性方面,阿里云参与AI云稳定性标准体系《大规模智算服务集群稳定运行能力要求》的制定与发布,推动行业AI云稳定性标准化。

智算集群服务.JPG

相关文章
|
3天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
33 12
|
3天前
|
人工智能 自然语言处理 算法
AI时代的企业内训全景图:从案例到实战
作为一名扎根在HR培训领域多年的“老兵”,我越来越清晰地感受到,企业内训的本质其实是为企业持续“造血”。无论是基础岗的新人培训、技能岗的操作规范培训,还是面向技术中坚力量的高阶技术研讨,抑或是管理层的战略思维提升课,内训的价值都是在帮助企业内部提升能力水平,进而提高组织生产力,减少对外部资源的依赖。更为重要的是,在当前AI、大模型、Embodied Intelligence等新兴技术快速迭代的背景下,企业必须不断为人才升级赋能,才能在市场竞争中保持领先。
|
6天前
|
人工智能 NoSQL MongoDB
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
|
1天前
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。
|
13天前
|
存储 人工智能 缓存
官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake
近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。
|
8天前
|
人工智能 Kubernetes Cloud Native
荣获2024年AI Cloud Native典型案例,阿里云容器产品技术能力获认可
2024全球数字经济大会云·AI·计算创新发展大会,阿里云容器服务团队携手客户,荣获“2024年AI Cloud Native典型案例”。
|
1天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
23小时前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
6天前
|
机器学习/深度学习 人工智能 JSON
【实战干货】AI大模型工程应用于车联网场景的实战总结
本文介绍了图像生成技术在AIGC领域的发展历程、关键技术和当前趋势,以及这些技术如何应用于新能源汽车行业的车联网服务中。
|
1天前
|
人工智能 Kubernetes 安全
赋能加速AI应用交付,F5 BIG-IP Next for Kubernetes方案解读
赋能加速AI应用交付,F5 BIG-IP Next for Kubernetes方案解读
30 13