CIPU是云计算的未来吗?它是如何进行计算加速的?
阿里之前既然把新发布的处理器特意命名为CIPU,也就是Cloud Infrastructure Processing Units的首字母缩写,显然对于其在云计算的未来有充分信心。
之前阿里云最为大众熟悉的应用案例就是应对双11的付款高峰,以及12306的春运高峰了。这种瞬时超高并发的冲击对云设施要求很高,分布式和存算分离虽然大大提高了系统利用效率,但随着相关业务规模的快速增长和业务复杂度的上升,云计算对算力、带宽和延迟的要求也越来越高。
在硬件方面,传统CPU虽然可以胜任数据中心的工作,但软件定义的复杂度越来越高,面对计算、存储、网络等复杂需求,数据中心的规模越来越大,效率瓶颈十分明显。
除此之外,CPU自身的IPC进步幅度也在大幅度放缓,例如:业内龙头厂商的CPU的IDC在2015年之后增长越来越慢:
来自Reddit
这不仅有架构上的瓶颈,还有IDM厂家面临先进工艺的掣肘,N10和N7的多年延迟严重拖慢了升级节奏,即使业内最领先厂商的先进工艺SRAM密度进度也基本趋于停滞:
SRAM密度变化
而当今热点事件的爆发,视频直播的兴起等对低延迟、高并发的云服务要求大大提高,之前发布的阿里云直播靠着全球的2800多个CDN节点和150+TB的带宽才实现高清直播服务的保障。在类似的案例中,随着硬件规模的不断扩张,虚拟化的负担也更重,硬件上实现加速计算,提高效率就很有必要。
而自从DSA兴起后,硬件级专用加速计算优势就很明显,NVMe,IPSec之类的很多协议直接用DPU、IPU或CIPU中的加速模块来实现,比单纯扔到CPU上会快很多。算力的损耗,存储的加速和网络延迟的优化等是解决CPU负载过重的关键。IPU和DPU虽然路线不同,但分担CPU更多的计算任务的总思路是相通的。
目前CIPU虽然缺乏很具体的公开测试数据作支撑,但看介绍在网络测,实现硬件级加速,又保持一定的需求弹性来做RDMA的应用,有点类似于用FPGA来实现5微秒的延迟。而存储和计算,结合飞天系统平台的优化,对于实现复杂应用场景的硬件级加速也很有必要。
比如前边提到过的视频直播场景,现在观众对直播的清晰度、实时性和稳定性的要求都很高,热门赛事直播从1080P升级到4K,8K,端到端的直播延迟通常在1秒以下。这种数据密集型对低延迟、高带宽的需求可以利用CIPU可以实现更好的资源池调配,虚拟化损耗的降低,网络和存储的加速都能极大地提升视频直播服务的质量,使得直播门户可以更好地给观众提供服务。CIPU和飞天这种软硬结合的思路在未来也有着很大的优化潜力。
来自阿里云
总之,无论是基于FPGA定制的神龙系列处理器,还是平头哥做的倚天系列CPU,如今的CIPU,这些硬件说到底还是阿里云自身有需求。从CPU到CIPU,从硬件到软件,逐步构建起了云计算的核心能力。
赞1
踩0