大咖与小白的日常:S级游戏公司是如何快速开服的?

简介: 游戏行业的云上典型架构非常类似,使用CADT模板可以实现多地域批量快速开服。

游戏行业的云上典型架构非常类似,使用CADT模板可以实现多地域批量快速开服。

最佳实践

游戏行业的云上典型架构都非常类似,常常有单元化交付需求,其特点如下:

  • 需要交付的资源多、量大,类型多;

  • 架构类似,可复制性比较高;

  • 全球多地域开服;

  • 具有潮汐特性,需要在流量高峰之前,快速准备好云上资源,待流量低谷时,需要及时回收资源,节约成本。

通过CADT模板可实现多地域批量快速开服,方案优势如下:

  • 模板可以灵活调整,通过传参的方式实现云上架构的变量替换。

  • 开通批量提交功能,大大减少游戏开服时间,实现大规模批量开服。

  • 支持 API 集成到客户的资源管理流程

    • 只需写一次代码,即可接入 100+阿里云产品的询价能力。

    • 只需写一次代码,即可接入 100+阿里云产品的开通能力。

    • 只需写一次代码,即可接入 100+阿里云产品的标签能力。

  • 支持库存校验以及 dryrun 接口,提前验证资源能否成功开通。

视频中的小白问大咖,出海的游戏公司如何快速开服,即可用CADT模板实现。

点击跳转大咖教程如何使用CADT?

详情请参考S级游戏多地域批量开服最佳实践

如何使用CADT?

  1. 浏览器输入aliyun.com,进入阿里云首页。
  2. 进入CADT控制台

  3. 点击新建 > 官方解决方案中心

  4. 根据业务场景选择不同的模板。以ECS测试环境这个模板为例:

  5. 选择模板,点击保存

  6. 确认规格和价格,点击部署应用

  7. 实际工作时,可以在上述步骤中,按照实际情况调整架构图,设置好自己的ECS镜像,创建自己的专属扩容模板。

相关文章
|
机器学习/深度学习 数据采集 人工智能
探索AI技术在文本生成中的应用与挑战
【9月更文挑战第26天】本文深入探讨了AI技术在文本生成领域的应用,并分析了其面临的挑战。通过介绍AI文本生成的基本原理、应用场景以及未来发展趋势,帮助读者全面了解该技术的潜力和局限性。同时,文章还提供了代码示例,展示了如何使用Python和相关库实现简单的文本生成模型。
633 9
|
设计模式 缓存 Devops
微服务架构最强讲解,那叫一个通俗易懂!
微服务架构(Microservice Architecture)是一种架构概念,旨在通过将功能分解到各个离散的服务中以实现对解决方案的解耦。你可以将其看作是在架构层次而非获取服务的
32458 3
微服务架构最强讲解,那叫一个通俗易懂!
|
人工智能 弹性计算 搜索推荐
打造个性化的微信公众号AI小助手:从人设到工作流程
在数字化时代,一个有个性且功能强大的AI小助手能显著提升用户体验。本文档指导如何在微信公众号上设置AI小助手“小智”,涵盖其人设、功能规划及工作流程设计,旨在打造一个既智能又具吸引力的AI伙伴。
1019 0
|
11月前
|
Oracle Java 关系型数据库
2023年震撼!Java在TIOBE排行榜滑坡至历史最低!
自2023年6月起,Java在TIOBE编程语言排行榜中跌至历史最低的第4位,与C#的差距缩小至1.2%。Java受欢迎程度下降的主要原因是Oracle在Java 8后引入付费许可模式,导致用户流失。尽管如此,Java仍是一门成熟、稳定且跨平台的语言,拥有庞大的用户群和丰富的生态系统。Oracle通过推出Java 17免费版及Java 21的新特性,努力保持其竞争力。未来,Java将继续与其他编程语言竞争并发展。
285 1
|
11月前
|
监控 数据可视化 Java
zabbix全面的监控能力
zabbix全面的监控能力
424 7
|
缓存 Java 测试技术
总结|性能优化思路及常用工具及手段
性能优化是降低成本的手段之一,每年大促前业务平台都会组织核心链路上的应用做性能优化,一方面提升系统性能,另外一方面对腐化的代码进行清理。本文结合业务平台性能优化的经验,探讨一下性能优化的思路及常用工具及手段。
76620 1
|
程序员 数据库
分享 2 个 .NET EF 6 只更新某些字段的方法
分享 2 个 .NET EF 6 只更新某些字段的方法
311 0
|
存储 数据采集 监控
性能测试报告模板
本文档为某某某项目性能测试报告,主要内容包括概述、测试环境、测试方法、测试工具等。主要的读者有性能测试脚本开发人员、性能测试执行人员、性能评估人员、开发人员、项目经理、用户代表等。
5765 1
性能测试报告模板
|
存储 机器学习/深度学习 算法
如何准确的估计llm推理和微调的内存消耗
最近发布的三个大型语言模型——Command-R+ (104B参数), Mixtral-8x22b (141B参数的MoE模型), 和 Llama 3 70b (70.6B参数)——需要巨大的内存资源。推理时,Command-R+需193.72GB GPU RAM,Mixtral-8x22B需262.63GB,Llama 370b需131.5GB。激活的内存消耗根据序列长度、批大小等因素变化。文章详细介绍了计算这些模型内存需求的方法,并探讨了如何通过量化、优化器优化和梯度检查点减少内存使用,以适应微调和推理。
2138 0
|
监控 安全 Linux
reactor的原理与实现
前情回顾 网络IO,会涉及到两个系统对象:   一个是用户空间调用的进程或线程   一个是内核空间的内核系统 如果发生IO操作read时,会奖励两个阶段:
375 1