迈过AI算力鸿沟,人工智能计算中心的产业价值凸显

简介: “十四五”规划纲要将“加快数字化发展 建设数字中国”单独成篇,并首次提出数字经济核心产业增加值占GDP比重这一新经济指标,将数字经济提升到了国家战略高度,AI作为数字经济的重要驱动力之一,即将迎来重大发展机遇。

“十四五”规划纲要将“加快数字化发展 建设数字中国”单独成篇,并首次提出数字经济核心产业增加值占GDP比重这一新经济指标,将数字经济提升到了国家战略高度,AI作为数字经济的重要驱动力之一,即将迎来重大发展机遇。


同时,“十四五”规划中明确提出,要瞄准人工智能等前沿领域,强化国家战略科技力量。


顶层设计引导下,越来越多高校、科研院所及企业正加速入局,进行AI创新探索。繁荣景象下,原本就很紧张的算力供给正面临着更加严峻的挑战,甚至制约了AI的发展速度。


幸运的是,一种更符合当下实际的算力供给形态——基于昇腾的人工智能计算中心正在蓬勃发展,它不仅能够有效解决日益严峻的算力供给问题,还可以通过资源聚集效应对AI产业发展起到孵化和助推作用。



人工智能计算中心

助力突破AI发展算力瓶颈


数据显示,当前AI在全行业整体渗透率只有4%,AI初创企业的存活率不到10%,这与AI产业蓬勃发展的大众印象存在较大冲突。背后的重要原因之一,就是国内目前稀缺且昂贵的AI算力,抬高了AI研究和应用的门槛。


高校、科研院所和中小初创企业等组织普遍面临着一个尴尬状况:他们研究的课题和项目在技术深度和预期目标上并不输于大型龙头企业,但资源供给却远远不及。AI算法创新需要投入大量算力反复试错、迭代,很难一次性成功,这就使得算力资源不足的组织很容易陷入“畏手畏脚”的境地,直接影响创新效率和成果。


人工智能计算中心提供的高性价比的、安全、普惠的算力资源,可大幅缩减各类组织的算力成本,缓解甚至彻底解决算力瓶颈问题。


在各地政府与华为等领先科技企业的合作下,基于昇腾的人工智能计算中心已经在深圳、武汉、成都等多个城市相继落地。


在武汉,华为助力建设的人工智能计算中心AI峰值性能可达100PFLOPS;在深圳,华为助力建设和运营的“鹏城云脑Ⅱ”基于Atlas 900集群可提供E级算力。去年11月由多名国际专家联合发布的IO500榜单中,“鹏城云脑II”分别以7043.99和1129.75的得分,位居IO500总榜榜首和10节点榜单榜首。这是国内系统首次占据该榜单榜首位置,实现了零的历史性突破。

image.png

这些人工智能计算中心将给各地区的AI创新组织提供有力支撑,通过普惠且高效的AI算力资源推动科研创新和产业应用。


人工智能计算中心不仅为中小型组织解决了AI算力资源问题,也为许多大型组织提供了更加方便快捷的选项。企业自建AI算力需要配置软硬件系统、AI工程师、运维等众多要素,还要考虑散热、降噪等问题,工作量巨大。而有了人工智能计算中心,这些问题都不再需要考虑,企业只需要安心“享用”算力即可。



推动算力普惠之外,

人工智能计算中心的产业价值凸显


AI技术创新除了依赖于算力,也需要各方面配套资源的加持。因此,各地政府建设的人工智能计算中心还围绕产业互动进行了外延拓展:依托人工智能计算中心,协同打造公共算力服务平台、应用创新孵化平台、产业聚合发展平台、科研创新和人才培养平台,形成“一中心四平台”的人工智能产业布局,赋能区域产业集群。


这种联动式的做法,一方面能够直接促进AI技术与本地优势地位产业(如制造、医疗、交通、网联车等)相结合,让技术转化成产业价值。


以武汉为例,当地计划借人工智能计算中心等力量,到2023年孵化AI深度应用场景超过60个,形成AI应用示范项目超过100个。

image.png

目前已经能看到多个创新项目密集落地:


武汉企业库柏特的智能机器人补药系统,需要对机械臂每一次抓取药盒后进行“拍照”,在武汉人工智能计算中心的支持下,通过视觉处理算法创新,让过去200毫秒一次的拍照时间缩短到50毫秒,效率大大提升;微晟科技通过与武汉人工智能计算中心合作,创新落地的自助收银智能防损系统,让收银环节的商超盗损率下降85%。


另一方面,多个服务平台也能够有效汇聚各方资源,形成集群式的产业生态。以产业聚合发展平台为例,通过聚合人工智能链上的各类公司(包括算法公司、数据处理公司、行业集成公司等)形成完整产业闭环,其可以推动产业以整体姿态加速发展,避免因为“木桶效应”造成的发展障碍。


武汉人工智能计算中心就围绕武汉优势AI场景来服务当地的企业,在这之前,武汉已经获批国家新一代人工智能创新发展试验区,将重点打造和形成“一芯、两网(智能网联汽车、网络安全)、四大应用场景(数字设计、智能制造、智慧城市、基因测序)”的智能产业态势,人工智能计算中心推动着这样的产业聚集和发展更进一步。目前,武汉人工智能计算中心已经在20+企业、4家高校及科研院所提供算力和产业服务,引进了中科院自动化所等首批头部科研单位,带来了更多的行业技术专家,孵化更多的创新企业。


更进一步,从长期的人才建设角度看,人工智能计算中心原本就是人才最佳的聚集场所之一例如在深圳,依托“鹏城云脑Ⅱ”等优质资源,鹏城实验室聚集了31位院士、2000+科研人员,使得深圳快速成为了国内的AI人才高地。

image.png

可以说,随着人工智能计算中心的落地,地区的AI产业发展将被大大加速,且获得更好的长期发展环境。



让数字经济加速渗透的

人工智能计算中心,

还推动宏观产业竞争力提升?


从宏观的视角来看,人工智能计算中心就是AI发展过程中的“精细化分工”,让高校、科研院所、中小型企业等组织,或者非专业从事AI研发的大型企业(例如大型制造企业)能够将精力专注于创意创新、场景效率提升,各自聚焦于自己擅长的工作。


而这,亦推动着AI开发能力的普惠。一旦这种普惠实现,也意味着数字经济可以实现群策群力,龙头企业之外人人参与,加速向各个场景渗透,推动全面数字经济时代的到来。


与此同时,人工智能计算中心的全面落地,也是一次基础技术发展的机遇。


众所周知,中美两国在AI领域的创新各有优势,中国凭借创业创新的热情和庞大的市场占据了AI应用端的优势,而美国则强于基础框架、算法等。从这个角度看,人工智能计算中心以集中化的方式建设依托于昇腾基础软硬件,结合区域行业特点优势应用,是AI全栈技术的集中探索和实践,对发挥AI“头雁”作用有十分积极的意义。


现在,这项“事业”又在加速前行了,下周的2021世界人工智能大会,华为将在7月9日举办昇腾人工智能高峰论坛,解析人工智能产业政策,探讨人工智能中心的建设与运营方案,分享人工智能计算中心的最新落地和应用进展。这次峰会值得那些关心AI技术进步、关心AI产业发展的群体密切关注,不妨期待一下人工智能计算中心又将有哪些新的进展。

相关文章
|
21天前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
37 0
|
14天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
14天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
15天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
17天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
42 5
【AI系统】计算图的控制流实现
|
17天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
50 5
【AI系统】计算图挑战与未来
|
17天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图基本介绍
近年来,AI框架如TensorFlow和PyTorch通过计算图描述神经网络,推动了AI技术的发展。计算图不仅抽象了神经网络的计算表达,还支持了模型算子的高效执行、梯度计算及参数训练。随着模型复杂度增加,如MOE、GAN、Attention Transformer等,AI框架需具备快速分析模型结构的能力,以优化训练效率。计算图与自动微分紧密结合,实现了从前向计算到反向传播的全流程自动化。
40 4
【AI系统】计算图基本介绍
|
18天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
48 4
【AI系统】计算图优化架构
|
18天前
|
机器学习/深度学习 存储 人工智能
【AI系统】自定义计算图 IR
本文介绍了模型转换的方法及流程,重点讲解了计算图的自定义方法和优化技术。通过IR(Intermediate Representation)将不同AI框架的模型转换为统一格式,实现跨平台高效部署。计算图由张量和算子构成,支持多种数据类型和内存排布格式,通过算子融合等优化技术提高模型性能。文章还详细说明了如何使用FlatBuffers定义计算图结构,包括张量、算子和网络模型的定义,为自定义神经网络提供了实践指南。
33 3
【AI系统】自定义计算图 IR
|
1天前
|
人工智能 自然语言处理 Java
【100%好礼】诚邀体验SoFlu-JavaAl开发助手,重塑AI编码价值
在这个数字化时代,软件开发任务繁重,飞算科技推出SoFlu-JavaAl开发助手,诚邀您体验AI编码新境界。它不仅生成代码,还通过自然语言理解需求,精准生成完整工程源码,大幅缩短设计工期,提升效率。SoFlu-JavaAl支持一键构建Java Maven工程,轻松合并老项目,快速响应需求变更。参与体验还有机会获多重好礼!