阿里云张献涛:拥抱第三次云计算浪潮,云上驱动AI原生游戏

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于网站搭建
简介: 由国家新闻出版署主管,广东省新闻出版局、中共广州市委宣传部支持,中国音像与数字出版协会、广州开发区管委会、广州市黄埔区人民政府主办,中国音数协游戏工委、中共广州市黄埔区委宣传部、黄埔文化(广州)发展集团有限公司、黄埔文商旅(广州)集团有限公司承办的2023年度中国游戏产业年会大会12月15日在广州黄埔区举办。

由国家新闻出版署主管,广东省新闻出版局、中共广州市委宣传部支持,中国音像与数字出版协会、广州开发区管委会、广州市黄埔区人民政府主办,中国音数协游戏工委、中共广州市黄埔区委宣传部、黄埔文化(广州)发展集团有限公司、黄埔文商旅(广州)集团有限公司承办的2023年度中国游戏产业年会大会12月15日在广州黄埔区举办。


其中,阿里云副总裁、弹性计算产品线负责人张献涛以《拥抱第三次云计算浪潮,云上驱动AI原生游戏》为题发表了主题演讲。他表示:“过去十多年,阿里云陪伴众多游戏企业共同成长,构建高效经济的云服务平台。当前,AI技术正在重塑游戏产业,阿里云依托‘AI+云计算’的整体技术优势,构建面向未来、支撑AI基础设施的底层能力,助力游戏企业打造AI原生的精品游戏,做游戏企业最坚实的后盾。根据IDC最新发布的《中国游戏云市场跟踪,2022下半年》报告数据显示,中国游戏云整体市场规模(不含CDN)达到97亿元人民币,阿里云以38.5%的市场份额稳居中国游戏云市场第一。


640.png

阿里云副总裁 弹性计算产品线负责人 张献涛


2003年,云计算第一次提供服务,在第一次浪潮中,改变了全球互联网行业。米哈游为代表的企业从第一天起100%就在云上;第二次浪潮中,“传统企业”开始使用云计算;2023年,人工智能和云计算的结合,带来云计算的第三次浪潮,会让足够多的创新涌现出来。张献涛认为,在云计算的第三次浪潮中,AI技术正在游戏产业的各个环节激发创新,从游戏开发到游戏发行,再到玩家游戏体验的提升。随着各式AI模型应用的不断增长,AI基础设施的重要性也日益凸显。大模型的参数量、数据量更大,结合训练的时间要求和准确度,对计算能力的要求往往几何级膨胀,大规模并行计算中,对低延迟的网络、更高的带宽和存储性能的要求更高。只有通过先进的云计算和AI的体系化融合,才能支撑全社会的AI模型开发和应用。阿里云以“AI+云计算”的双轮驱动,围绕AI,基于「飞天+CIPU」全新计算架构,全面提升云计算的体系化基础能力,打造面向未来、支撑AI基础设施的底层能力,通过持续的技术创新,支持AI游戏不断前进。


据介绍,在算力层,阿里云基于全域的GPU云服务器资源的推理训练一体化方案,通过利用GPU池化、大规模云原生调度能力以及DeepGPU深度软件调优,并依托CIPU的eRDMA加速网络,强大的AI算力助力游戏企业打造更多AI原生的精品游戏,为玩家提供无与伦比的沉浸式体验。此外,在模型层,阿里云通义大模型家族的“通义星尘”,是一款个性化角色创建平台,可以把人的个性引入到日常对话里,可以帮助游戏企业创造一个个性化的角色,创造更多的虚拟人,丰富游戏玩家体验。


作为国内首款AI游戏,网易《逆水寒》手游需要强大的基础设施保障能力。自从6月30日正式开启公测以来,阿里云一直为《逆水寒》手游的平稳运行保驾护航。该游戏的最大亮点是探索了AI加持的智能NPC、AI捏脸、AI宋词创作等创新玩法,阿里云全Region  GPU云服务和弹性网络支撑了万级QPS的推理需求,高效地满足了玩家大量的AI体验需求。


未来,阿里云将持续与游戏企业深度合作、探索AI创新,共同开辟出更多引领游戏行业发展的新路径,陪伴更多企业拓展全球业务。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
人工智能 数据可视化 定位技术
不会编程也能体验的 AI 魔法,外滩大会代码原生地等你解锁
不会编程也能体验的 AI 魔法,外滩大会代码原生地等你解锁
404 39
|
2月前
|
人工智能 运维 监控
让天下没有难查的故障:2025 阿里云 AI 原生编程挑战赛正式启动
本次大赛由阿里云主办,云原生应用平台承办,聚焦 Operation Intelligence 的智能运维(AIOps)赛道,为热爱 AI 技术的开发者提供发挥创意和想象力的舞台,借助 LLM 强大的推理能力与标准化整合的多源可观测数据,找到 AI 应用在智能运维(AIOps)场景上的新方式。
427 31
人工智能 关系型数据库 分布式数据库
275 19
|
4月前
|
消息中间件 人工智能 资源调度
云上AI推理平台全掌握 (5):大模型异步推理服务
针对大模型推理服务中“高计算量、长时延”场景下同步推理的弊端,阿里云人工智能平台 PAI 推出了一套基于独立的队列服务异步推理框架,解决了异步推理的负载均衡、实例异常时任务重分配等问题,确保请求不丢失、实例不过载。
|
3月前
|
人工智能 Cloud Native Java
书本大纲:从芯片、分布式到云计算AI时代
本文深入探讨并发编程、JVM原理、RPC框架、高并发系统、分布式架构及云原生技术,涵盖内存模型、同步机制、垃圾回收、网络协议、存储优化、弹性伸缩等核心议题,揭示多线程运行逻辑与高并发实现路径,助你掌握现代软件底层原理与工程实践。
157 6
|
4月前
|
人工智能 缓存 资源调度
云上AI推理平台全掌握 (4):大模型分发加速
为应对大模型服务突发流量场景,阿里云人工智能平台 PAI 推理服务 PAI-EAS 提供本地目录内存缓存(Memory Cache)的大模型分发加速功能,有效解决大量请求接入情况下的推理延迟。PAI-EAS 大模型分发加速功能,零代码即可轻松完成配置。
|
2月前
|
设计模式 机器学习/深度学习 人工智能
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
|
4月前
|
人工智能 负载均衡 安全
云上AI推理平台全掌握 (3):服务接入与全球调度
阿里云人工智能平台 PAI 平台推出的全球化的服务接入矩阵,为 LLM 服务量身打造了专业且灵活的服务接入方案,正重新定义 AI 服务的高可用接入标准——从单地域 VPC 安全隔离到跨洲际毫秒级调度,让客户的推理服务在任何网络环境下都能实现「接入即最优」。
|
2月前
|
存储 人工智能 安全
云栖热词:AI 原生
阿里云智能资深技术专家简志在“云栖大会- AI 基础设施进化论坛”分享了团队的实践感悟,包括从云原生到 AI 原生的演进路线,AI 原生所包含的关键要素,以及未来的发展方向,希望对参与 AI 建设的所有同行者们有所启发。
|
3月前
|
人工智能
拥抱AI原生!8月29日深圳,企业实践工作坊火热报名中
阿里云诚挚邀请您参加【AI原生,智构未来——AI原生架构与企业实践】工作坊,8月29日13:30于深圳·LandMarkCoffee 蓝马咖啡(南山区科技园桑达科技大厦1楼)从开发范式到工程化实践,全链路解析AI原生架构奥秘,与AI先行者共探增长新机遇。立即报名:https://hd.aliyun.com/form/6638
381 17
拥抱AI原生!8月29日深圳,企业实践工作坊火热报名中

热门文章

最新文章