《2023云原生实战案例集》——01 汽车/制造——VIVO AI计算平台的ACK One混合云实践

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
性能测试 PTS,5000VUM额度
简介: 《2023云原生实战案例集》——01 汽车/制造——VIVO AI计算平台的ACK One混合云实践

image.png 

客户简介

vivo是一家以设计驱动创造产品/以智能终端和智慧服务为核心的科技公司。

客户痛点

资源交付周期长:此前使用自建机房/新增资源的采购流程复杂/周期长/无法及时 响应业务临时的大量算力需求,例如大规模参数模型的训练和在线服务的节假日活动 扩容。同时由于服务器供应链形势严峻,网卡、硬盘、GPU卡等硬件设备都缺货/采 购交付存在较大风险。

需要更高性能的基础设施:AI计算平台对网络、存储有更高的性能要求/在私有IDC 里落地需要很高的时间和金钱成本。

方案亮点

采用ACK One方案,将云主机当做裸金属/物理机,加入到客户自有容器集群,集群使 用人员体验感无差异,无需额外开发。云主机通过客户云平台申请,不改变当前资源申 请流程。

实施简单,成本低:客户原有集群无需改动,功能兼容,无需额外开发。

提供一致性的体验:将云主机加入集群的流程和物理机基本一致。先通过公司云平台 申请云主机,然后通过自动化平台将云主机初始化并加到集群中。

提供更好的混合云网络:Kubernetes的容器网络要求podpodpod和宿主机之 间通讯正常。该平台采用了 CaUco+Tevvay的网络方案,主要表现为在客户机房内的 工作节点采用CaLico BGP,阿里云上的工作节点采用Terway共享网卡模式,以获取 更好的性能。

image.png

建设成果

通过ACK One混合云的能力,该平台可将阿里云上的GPU主机加入到客户自有集群, 提供给用户在深度学习训练平台上使用,及时满足业务的算力需求。用户的使用习惯和 之前保持一致。公共云资源根据不同业务的情况,使用周期在一个月到数个月。使用费 用大大低于自行采购物理机的费用,有效降低成本。

相关产品

分布式有容命平台ACK Ohe

② 容器服务ACK

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
22天前
|
人工智能 小程序 搜索推荐
成功案例分享|使用AI运动识别插件+微搭,快速搭建AI美体运动小程序
今天给大家分享一个最近使用我们的“AI运动识别小程序插件”+“微搭”搭建小程序的经典案例。
成功案例分享|使用AI运动识别插件+微搭,快速搭建AI美体运动小程序
|
24天前
|
人工智能 自然语言处理 数据挖掘
利用小蜜蜂AI智能问答ChatGPT+AI高清绘图生成图文故事案例
利用小蜜蜂AI智能问答ChatGPT+AI高清绘图生成图文故事案例
39 1
|
3月前
|
人工智能 PyTorch 算法框架/工具
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
【8月更文挑战第6天】Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
|
3月前
|
人工智能 Linux Anolis
|
3月前
|
存储 人工智能 算法
AI与大数据的结合:案例分析与技术探讨
【8月更文挑战第22天】AI与大数据的结合为各行各业带来了前所未有的机遇和挑战。通过具体案例分析可以看出,AI与大数据在电商、智能驾驶、医疗等领域的应用已经取得了显著成效。未来,随着技术的不断进步和应用场景的不断拓展,AI与大数据的结合将继续推动各行业的创新与变革。
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
【模型微调】AI Native应用中模型微调概述、应用及案例分析
在AI Native应用中,模型微调是一个关键步骤,它允许开发者使用特定领域的数据对预训练模型进行二次训练过程,从而使其更好地适应特定任务或数据集。模型微调通过调整模型的参数,使模型在特定任务上达到更高的性能。这种技术广泛应用于自然语言处理、图像识别、语音识别等领域
72 1
|
3月前
|
边缘计算 人工智能 监控
边缘计算与AI结合的场景案例研究
【8月更文第17天】随着物联网(IoT)设备数量的爆炸性增长,对实时数据处理的需求也随之增加。传统的云计算模型在处理这些数据时可能会遇到延迟问题,尤其是在需要即时响应的应用中。边缘计算作为一种新兴的技术趋势,旨在通过将计算资源更靠近数据源来解决这个问题。本文将探讨如何将人工智能(AI)技术与边缘计算结合,以实现高效的实时数据分析和决策制定。
192 1
|
4月前
|
人工智能 运维 自然语言处理
|
3月前
|
机器学习/深度学习 人工智能 算法
|
4月前
|
机器学习/深度学习 人工智能 弹性计算

热门文章

最新文章

相关产品

  • 容器服务Kubernetes版