刘延_个人页

个人头像照片 刘延
个人头像照片
0
1
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息

2023年01月

正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2023-01-20

    CIPU是云计算的未来吗?它是如何进行计算加速的?

    我认为,CIPU是未来云计算IaaS“基建”的最重要的组成部分之一,它通过管理调度IaaS中硬件,加速计算、存储、网络,进而提升云服务器的整体能效。 CIPU是IaaS分布式技术发展的成果。 当前的IaaS年代,算力、存储、网络与传统硬件解耦,通过虚拟化的方式,构建虚拟池,进而实现弹性的算力/存储供给,并提供运维自动化。 虚拟化的好处很多,例如隔壁通讯领域,NFV免去了传统网络硬件设备的麻烦,而是将路由器、交换机、防火墙、负载均衡这些不同的网络功能封装成独立的模块化软件,通过在硬件设备上运行不同的模块化软件,在单一硬件设备上实现多样化的网络功能。 但在IaaS这块,问题就来了,一是虚拟化导致性能无法充分利用,二是I/O和算力的匹配越来越难。 例如阿里表示过,虚拟化会占用大量的CPU资源: Xen 时代,Xen Hypervisor DOM0 消耗 XEON 一半的 CPU 资源,也就是只有一半的 CPU 资源可以对外售卖,可以看到虚拟化云计算税极其沉重。 I/O方面,服务器CPU如果没有足够多的输入/输出数据,算力就只能“饿”着,传统冯诺依曼架构的“内存墙”降低了计算能耗比。所以服务器CPU上我们经常能看到多通道内存、茫茫多的PCI-E通道等等。 也因此有了CIPU的雏形。例如早年人们发明了TOE(TCP/IP Offloading Engine),将CPU处理网络协议数据包的I/O转移到网卡硬件中进行,避免CPU因为I/O处理产生的中断,进而提升服务器处理性能。 英伟达2020年收购了一家公司,并将这部分功能命名为DPU,英伟达表示: NVIDIA® BlueField® DPU(数据处理器)为现代数据中心和超级计算基础设施带来了前所未有的创新。通过对各种高级网络、存储和安全业务进行卸载、加速和隔离,BlueField DPU 可为云端、数据中心或边缘计算等环境中的各种工作负载提供安全、加速的基础设施。 现在DPU已经成为英伟达的企业业务重要组成部分,最新一期财报中,企业业务也已经超过消费者业务,成为英伟达营业收入的第一来源。 CIPU是软硬件融合的最佳形式之一 问题还是那个问题,IaaS需要虚拟化硬件设备进行服务,会导致性能损失。 还是为了解决这个问题,鉴于IaaS的弹性、算力、存储、能耗的需求,阿里巴巴结合自身云服务实例,提出了CIPU的概念: CIPU(Cloud Infrastructure Processing Unit,云基础设施处理器),顾名思义,就是把 IDC 计算、存储、网络基础设施云化并且硬件加速的专用业务处理器。 从下面的架构图上我们可以看到,CIPU加速不是做专用算力,而是一方面,通过调度实现CPU一部分能力的offload,提升CPU/GPU/专用芯片的运算效能;另一方面,优化算力和存储之间的访问效率,减少“内存墙”的问题,提升数据访问效率。 有了CIPU,IaaS的价格还能进一步降低,比如降低算力“损耗”、提升网络存储IOPS、构建RDMA弹性网络。 例如阿里表示, 单容器虚拟化消耗减少50%,虚拟化容器启动速度快350%,在Serverless场景下6秒可拉起3000个弹性容器实例 通过CIPU全硬件虚拟化和转发加速,存储时延最低可至30us,IOPS高达300万,存储带宽可达200Gbps。  CIPU高带宽物理网络硬件加速,基础带宽从100G升级至200G,VPC的PPS转发性能从2000万提升至4000万,网络时延降低至16us,RDMA协议下更可低至5.5us。 ** 总结** 随着高带宽的到来,CPU增长速度与I/O速度差距逐渐拉大,CIPU应运而生。 作为计算负载的引擎,CIPU的卸载和调度能提升IaaS通过虚拟化后实现网络、计算、存储资源云化加速,提升运算效率、减少能耗浪费。 CIPU这个概念,从全球云服务市场来看,有望成为计算市场继CPU、GPU之后的第三大支柱,但技术标准、生态等领域仍处于早期阶段,神龙4.0是不错的案例,但后续发展还需要各大厂商持续摸索。
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息