CPU被GPU按在地上摩擦了一次,这次又被CIPU蹂躏?

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: CPU被GPU按在地上摩擦了一次,这次又被CIPU蹂躏?

  2022年6月13日,我首次以在线的形式围观阿里云峰会。

  作为一场行业峰会,信息量自然很大,阿里云谈了很多理念,发布了一些新服务。不过,我最感兴趣的还是——CIPU(Cloud infrastructure Processing Units),这是阿里云在会上宣布推出的云基础设施处理器。阿里云的野心很大,认为CIPU未来或将替代CPU成为云计算的管控和加速中心。

image.png


  替代CPU,话题性十足,引发了各方讨论。

  在过去很多年,关乎芯片这个概念,CPU是第一主角,因为CPU处理器规格决定了一台服务器工作效能的高低。后来GPU出现了,不过GPU只是配角,它最初仅仅作为Windows视频游戏的加速器。

  没人能想到,随着人工智能、元宇宙、自动驾驶等理念深耕发展,更符合前沿市场运算需求的GPU被各大企业青睐,GPU超过CPU,成为市场新主角。一个典型的标志事件在于,GPU代表企业英伟达市值超过CPU代表企业英特尔,并且超过了一倍有余。

  CPU被GPU按在地上摩擦了一次,近年又被IPU、DPU等概念冲击。现在阿里云发布的云数据中心处理器CIPU,能否成为新时代的主角,继续蹂躏CPU?


  算力就是竞争力的新时代 CIPU架构拥有更大用武之地


  众所周知,过去多年,用CPU管理和加速计算、网络、存储等基础设施是常态。然而进入AI时代,千百万个行业生产的数据已经达到天文数字,传统以CPU为中心的计算体系架构日渐面临计算与网络传输时延的高要求与整体I/O性能虚拟化损耗的挑战。

  时至今日,互联网大数据不仅仅涉及互联网行业,它也和我们的日常生活、生产息息相关,我们的工业、农业、教育、医疗等等,每一个行业都离不开数据,都需要数据的交互、计算、传输、存储、应用,也亟需数字化、信息化的工具来提升效率,亟需高性能的云计算服务来降本增效。

  简单来说,进入万物互联网新时代,算力就是核心竞争力,提升算力,就是提升生产力。

  算力有多重要?举个例子,在《倚天屠龙记》中,张无忌的内功不精纯(算法一般),但也震惊了张三丰,“只觉掌心中传来这股力道雄强无比,虽然远不及自己内力的精纯醇正,但泊泊然、绵绵然,直是无止无歇、无穷无尽。” 为什么会有如此功效?简单来说,如果张三丰体内有100台服务器,张无忌就有200台,算力大了一个层级。

  这两年,国家大举推进“东数西算”战略,也是基于优化我国大数据算力结构、提升我国算力竞争的考量。当然,算力提升最终带来的价值不仅仅是各大科技公司的降本增效,而是全社会效率的提升。“东数西算”节约了电费、土地成本、算力成本,却又提升、统筹、优化了算力资源,一举多得,自然降低了方方面面的运营成本,成本的降低,必然提升广大市场主体的创业积极性,进而提升社会效率。

  在万物互联的人工智能时代,同样的算法,如果算力足够强大,就能发挥不一样的效应。阿里云作为行业领导者,敏锐洞察到行业发生的深刻变化,推出综合了多种技术和服务的CIPU架构,在这个全新体系架构下,CIPU对数据中心的计算、存储、网络资源快速云化并进行硬件加速,按照阿里云的说法,CIPU与计算结合,算力可以做到“0”损耗。

  CIPU架构推出的直观价值,就在于算力的提升。这个架构超脱于传统,但没脱离传统,它将传统通用计算单元、满足特定工作负载的加速计算单元、以及满足网络和存储功能的加速单元进行高速互联协调(相当于把实现各类功能需求的软硬件打包在一起),组合成一个完整的分布式异构算力模块,就像张无忌一样,一个人融合了九阳神功、乾坤大挪移、太极拳等多种武功,可以按需解决敌人。CIPU架构也是如此,因此能高效满足复杂多变的云上数据中心算力场景。


  行业形成共识:阿里和京东先后革新架构


  正如前文所言,以CPU为中心的计算体系架构已经无法满足当今大数据、人工智能时代的需求,这不仅仅是阿里云一家的认知,也正在成为行业共识。至少,阿里的老朋友京东,也是这么认为的。

  在阿里云宣布推出CIPU的道路上,京东云围绕产业数字化需求推出“京刚”软硬一体虚拟化架构,不仅能将虚拟化损耗降至零,保留物理机的计算资源和性能,还全面支持云主机、裸金属云主机、原生容器,释放云计算低成本优势;在今年618期间首次大规模应用,京东云发布的统一存储平台云海,基于高性能的存算分离架构,可以实现数据统一存储、统一管理,数据自由流动,对OLTP/OLAP等场景的计算存储资源实现解耦并降本增效,成本节省30%~50%。

  从CIPU的特性来看,CIPU与计算结合,快速接入不同类型资源的服务器,带来算力的“0”损耗,以及硬件级安全的加固隔离;CIPU与存储结合,对存算分离架构的块存储接入进行硬件加速,云盘存储IOPS最高可达300万,长尾时延降低50%;CIPU与网络结合,可对高带宽物理网络进行硬件加速,构建大规模弹性RDMA高性能网络,时延最低可达5us。

  阿里云和京东云干的事情,本质来说就是通过计算架构的升级,解决了算力损耗难题,同时优化存储和网络带宽,帮助广大企业和机构在使用中降本增效。

  当然,阿里云更进一步,早年研发的飞天操作系统,这个时候可以和CIPU直接融合适配,进而形成了云上的统一虚拟资源池,并供客户使用云上算力。

  有意思的是,作为CPU时代的霸主英特尔,也开启了自我革命。近期,在英特尔2022On产业创新峰会上,英特尔也公布了第四代英特尔至强可扩展处理器(代号Sapphire Rapids)细节,内置人工智能深度学习加速技术和数据流加速器,从软硬件同时入手优化AI工作负载,为各行各业的数据计算和管理赋能。

image.png


  英特尔自身也认识到CPU架构在大数据、云计算时代的局限,进行了从CPU到XPU的全面布局。不过英特尔的历史包袱太重,思想转变的同时业务体系很难及时跟进,出现了头重脚轻的状况。希望华为、京东、BAT等企业,能够反过来倒逼英特尔,助推这家企业锐意转型,新时代不能少了英特尔。


  架构革新背后:牢牢掌握云计算的未来主动权


  郑纬民院士当天参加了阿里云峰会,他认为阿里云提出的CIPU,使得中国在争取云计算的定义权中处于有利位置,改变了原本由西方技术制定的游戏规则,让我国IT产业建立了全球领导力。这一改变格局的事,让我对中国在下一个技术时代拥有自己的一席之地表示乐观。

image.png


  阿里云能否担得起这样的赞誉另当别论,但我国争取把握IT发展全球主动权是不争事实。

  平心而论,在IT底层技术和架构层面,我们还落后于西方(其实就是美国),但在应用层面,也就是“互联网助力人民美好生活”这个层面,我们比西方领先。由于我国较早将互联网提升到国家战略,现在中国接入互联网的行业,以及相关的企业、个体,都超过全球任何一个国家。当在家点外卖、扫码买红薯成为生活常态后,那么我们国家产生的数据维度也比任何一个国家更为丰富,数据价值可以裂变的关联价值也就更多。

  因此,我们有必要争取把握IT发展主导权,从底层架构到适配操作系统、软硬件一体化层面进行革新。我们要走一条中国特色的道路,让互联网、大数据、云计算继续深入生活、工作、农业生产的方方面面,产生更大的价值。

  所以,我们看待阿里云以及华为云、腾讯云、百度云、京东云的价值,不要看这些企业自身获取了多少营收、赚取了多少利润,而是要看它们给广大社会主体带来的价值,这个价值无法用数据来衡量,但远超他们自身的营收数据。

  建议相关智库机构进行系统研究,就像当年研究物流效率提升带来的经济效益提升一般(我国物流总费用占GDP的比例每降低1个百分点,就可为工业企业节省超过9000亿元的费用,为我国经济和社会发展带来超过6500亿元的效益),计算出来算力提升为经济社会带来的价值。我想,这一定会是一个惊人的数据。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
1月前
|
弹性计算 人工智能 Serverless
阿里云ACK One:注册集群云上节点池(CPU/GPU)自动弹性伸缩,助力企业业务高效扩展
在当今数字化时代,企业业务的快速增长对IT基础设施提出了更高要求。然而,传统IDC数据中心却在业务存在扩容慢、缩容难等问题。为此,阿里云推出ACK One注册集群架构,通过云上节点池(CPU/GPU)自动弹性伸缩等特性,为企业带来全新突破。
|
2月前
|
监控 异构计算
Jetson 学习笔记(八):htop查看CPU占用情况和jtop监控CPU和GPU
在NVIDIA Jetson平台上使用htop和jtop工具来监控CPU、GPU和内存的使用情况,并提供了安装和使用这些工具的具体命令。
170 0
|
2月前
|
机器学习/深度学习 人工智能 并行计算
CPU和GPU的区别
【10月更文挑战第14天】
|
2月前
|
机器学习/深度学习 人工智能 缓存
GPU加速和CPU有什么不同
【10月更文挑战第20天】GPU加速和CPU有什么不同
61 1
|
3月前
|
人工智能 自然语言处理 文字识别
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
在7月4日举行的WAIC 2024科学前沿主论坛上,书生·浦语2.5正式发布,面向大模型研发与应用的全链条工具体系同时迎来升级。
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
|
4月前
|
机器学习/深度学习 人工智能 并行计算
【人工智能】CPU、GPU与TPU:人工智能领域的核心处理器概述
在人工智能和计算技术的快速发展中,CPU(中央处理器)、GPU(图形处理器)和TPU(张量处理器)作为核心处理器,各自扮演着不可或缺的角色。它们不仅在性能上各有千秋,还在不同的应用场景中发挥着重要作用
245 2
|
5月前
|
并行计算 API 数据处理
GPU(图形处理单元)因其强大的并行计算能力而备受关注。与传统的CPU相比,GPU在处理大规模数据密集型任务时具有显著的优势。
GPU(图形处理单元)因其强大的并行计算能力而备受关注。与传统的CPU相比,GPU在处理大规模数据密集型任务时具有显著的优势。
|
17天前
|
存储 缓存 监控
Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
本文介绍了Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
50 7
|
1月前
|
弹性计算 Kubernetes Perl
k8s 设置pod 的cpu 和内存
在 Kubernetes (k8s) 中,设置 Pod 的 CPU 和内存资源限制和请求是非常重要的,因为这有助于确保集群资源的合理分配和有效利用。你可以通过定义 Pod 的 `resources` 字段来设置这些限制。 以下是一个示例 YAML 文件,展示了如何为一个 Pod 设置 CPU 和内存资源请求(requests)和限制(limits): ```yaml apiVersion: v1 kind: Pod metadata: name: example-pod spec: containers: - name: example-container image:
188 1
|
1月前
|
存储 关系型数据库 MySQL
查询服务器CPU、内存、磁盘、网络IO、队列、数据库占用空间等等信息
查询服务器CPU、内存、磁盘、网络IO、队列、数据库占用空间等等信息
483 2