荣获2024年AI Cloud Native典型案例,阿里云容器产品技术能力获认可

简介: 2024全球数字经济大会云·AI·计算创新发展大会,阿里云容器服务团队携手客户,荣获“2024年AI Cloud Native典型案例”。

【阅读原文】戳:荣获2024年AI Cloud Native典型案例,阿里云容器产品技术能力获认可

12月3日,由全球数字经济大会组委会主办、中国信息通信研究院(以下简称“中国信通院”)承办的2024全球数字经济大会云·AI·计算创新发展大会(2024 Cloud AI Compute Ignite)在北京举办。本次大会以“智启云端,算绘蓝图”为主题,全面展示中国信通院在AI云产业领域的研究、探索与实践。旨在进一步促进云计算创新发展,提升AI云产业技术和服务水平。

 

大会现场对领域近期权威成果进行了颁奖公示,阿里云容器服务团队携手客户,荣获“2024年AI Cloud Native典型案例”

 

随着智能算力逐渐在算力结构中占据更重要的位置,传统的通用云计算服务逐步升级成为服务于人工智能技术和应用发展的AI云。ACK云原生AI套件希望为基于Kubernetes运行AI/ML的客户与社区,提供一整套开放、可扩展、高效率的云原生解决方案本次获评的“基于云原生AI技术的聚宽智能投研平台实践”,是量化金融领域在AI云首批落地的优秀案例。

 

 

在智能时代下,量化交易等基于AI与大数据方法的交易方式逐渐成为股票交易中一股新兴力量,聚宽依托阿里云容器服务Kubernetes版ACK,以Kubernetes为底座,同时使用了阿里云NAS、OSS、SLS、GPU共享调度、HPA、Prometheus等云产品和云原生AI套件技术,搭建了一套高效的智能投研平台,支撑因子计算、量化模型训练、投研策略回测等业务场景。

 

聚宽智能投研平台在算力方面,通过使用阿里云ECS和ECI搭建固定节点加弹性节点的算力池,满足日常研究基础算力需求的同时,灵活应对研究员临时增加的算力需求,通过弹性资源能力将集群平均利用率从不足40%提升至70%以上,大幅节约成本。

 

在存储方面,根据数据的使用频次、大小、文件数量等因素,分别使用NAS和OSS进行分类存储,缓解了数据源的IO压力,提高数据的读写效率。

 

在调度方面,引入不同的调度组件,以应对不同类型的任务,对于基础任务,平台通过封装Kubernetes编排,实现云端的分布式运算;对于AI训练推理类型任务,平台引入GPU共享调度能力,实现资源的高效管理与分配,提高资源利用率;针对数据密集型任务,平台通过ACK Fluid一方面统一访问和管理NAS和OSS数据,有效提升数据IO性能,加快任务处理速度,将由于IO延迟带来的计算成本降低至1/10; 另一方面通过使用Fluid python SDK管理数据流程,提升量化研究员的工作效率。

 

通过AI Cloud在投研平台中的应用,聚宽智能投研平台在量化研究流程中的效率、人力、资源成本等方面都得到了显著优化。原本需要一周以上时间才能完成的因子挖掘、模型训练、结果验证等一整套流程,现在缩短到了1-2天。

 

ACK云原生AI套件助力聚宽智能投研平台,实现更强生产力、更高生产率和更优性价比。为运行在投研平台上的AI应用提供了“资源共享,高效调度,弹性AI,数据加速,AI任务全生命周期管理”等多项自底向上的优化和创新能力。

 

阿里云ACK云原生AI套件的技术和产品方案,已帮助来自包括互联网、游戏、自动驾驶、量化金融、在线教育、AI for Science、科研机构等众多领域的行业用户,快速构建其AI平台,以统一的架构和标准化API,适配公共云、专有云、混合云和边缘的需求。同时,阿里云也积极通过开源,与社区共同推进云原生AI的演进和落地。


我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
打赏
0
1
1
0
238
分享
相关文章
生成AI的两大范式:扩散模型与Flow Matching的理论基础与技术比较
本文系统对比了扩散模型与Flow Matching两种生成模型技术。扩散模型通过逐步添加噪声再逆转过程生成数据,类比为沙堡的侵蚀与重建;Flow Matching构建分布间连续路径的速度场,如同矢量导航系统。两者在数学原理、训练动态及应用上各有优劣:扩散模型适合复杂数据,Flow Matching采样效率更高。文章结合实例解析两者的差异与联系,并探讨其在图像、音频等领域的实际应用,为生成建模提供了全面视角。
73 1
健康监测设备的技术革命:AI+物联网如何让你随时掌握健康数据?
健康监测设备的技术革命:AI+物联网如何让你随时掌握健康数据?
98 19
多模态AI核心技术:CLIP与SigLIP技术原理与应用进展
近年来,多模态表示学习在人工智能领域取得显著进展,CLIP和SigLIP成为里程碑式模型。CLIP由OpenAI提出,通过对比学习对齐图像与文本嵌入空间,具备强大零样本学习能力;SigLIP由Google开发,采用sigmoid损失函数优化训练效率与可扩展性。两者推动了多模态大型语言模型(MLLMs)的发展,如LLaVA、BLIP-2和Flamingo等,实现了视觉问答、图像描述生成等复杂任务。这些模型不仅拓展了理论边界,还为医疗、教育等领域释放技术潜力,标志着多模态智能系统的重要进步。
41 13
多模态AI核心技术:CLIP与SigLIP技术原理与应用进展
HarmonyOS Next~鸿蒙AI功能开发:Core Speech Kit与Core Vision Kit的技术解析与实践
本文深入解析鸿蒙操作系统(HarmonyOS)中的Core Speech Kit与Core Vision Kit,探讨其在AI功能开发中的核心能力与实践方法。Core Speech Kit聚焦语音交互,提供语音识别、合成等功能,支持多场景应用;Core Vision Kit专注视觉处理,涵盖人脸检测、OCR等技术。文章还分析了两者的协同应用及生态发展趋势,展望未来AI技术与鸿蒙系统结合带来的智能交互新阶段。
60 31
Python下的毫秒级延迟RTSP|RTMP播放器技术探究和AI视觉算法对接
本文深入解析了基于Python实现的RTSP/RTMP播放器,探讨其代码结构、实现原理及优化策略。播放器通过大牛直播SDK提供的接口,支持低延迟播放,适用于实时监控、视频会议和智能分析等场景。文章详细介绍了播放控制、硬件解码、录像与截图功能,并分析了回调机制和UI设计。此外,还讨论了性能优化方法(如硬件加速、异步处理)和功能扩展(如音量调节、多格式支持)。针对AI视觉算法对接,文章提供了YUV/RGB数据处理示例,便于开发者在Python环境下进行算法集成。最终,播放器凭借低延迟、高兼容性和灵活扩展性,为实时交互场景提供了高效解决方案。
AI战略丨从探索到突破,全面解读智实融合关键技术
关键技术的发展水平直接决定了智实融合的深度与广度,是其应用进一步拓展的关键因素。
AI职场突围战:夸克应用+生成式人工智能认证,驱动“打工人”核心竞争力!
在AI浪潮推动下,生成式人工智能(GAI)成为职场必备工具。文中对比了夸克、豆包、DeepSeek和元宝四大AI应用,夸克以“超级入口”定位脱颖而出。同时,GAI认证为职场人士提供系统学习平台,与夸克结合助力职业发展。文章还探讨了职场人士如何通过加强学习、关注技术趋势及培养合规意识,在AI时代把握机遇。
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
1181 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
帮你整理好了,AI 网关的 8 个常见应用场景
通过 SLS 还可以汇总 Actiontrail 事件、云产品可观测日志、LLM 网关明细日志、详细对话明细日志、Prompt Trace 和推理实时调用明细等数据汇总,从而建设完整统一的可观测方案。

热门文章

最新文章