华为:计算必然从通用计算走向多样性计算

简介: 在 4 月 27 日举行的 2022 年华为全球分析师大会上,华为计算产品线营销副总裁张勤在演讲中表示,未来,算力的增量主要是 AI 算力的快速增长。未来 10 年,通用算力增长 10 倍、人工智能算力增长 500 倍。计算必然从通用计算走向通用计算+AI 计算的多样性计算。

在 4 月 27 日举行的 2022 年华为全球分析师大会上,华为计算产品线营销副总裁张勤在演讲中表示,未来,算力的增量主要是 AI 算力的快速增长。未来 10 年,通用算力增长 10 倍、人工智能算力增长 500 倍。计算必然从通用计算走向通用计算+AI 计算的多样性计算。

当前,全国已有 20 多个城市在规划和建设人工智能计算中心。华为计算产品线营销副总裁张勤在上述大会上对 InfoQ 记者表示,人工智能会成为推动社会的引擎,旨在让 AI 算力像水和电一样成为城市公共基础资源,推动本地的产业、生态和人才的发展。这些建设中的人工智能计算中心,未来会连接成人工智能算力网络。通过人工智能算力网络,实现算力、数据、生态三大汇聚与共享,以此激活人工智能与各产业的共融共生。

打造高质量的算力网络,已经逐渐成为各方共识。华为光传送领域总裁周军指出,算力网络将是未来 10 年的主旋律,企业不再满足于简单的“互联网+基础信息化”,而是希望将数字技术与核心业务有机融合,计算从“打辅助”,提升为主角。“企业使用澎湃算力来打造智能制造、柔性制造,大幅提升生产效率。这就要求网络从过去的‘尽力而为’的不确定发展为确定性保障的网络,我们提出品质算网方案,打造一张有路就通、毫秒时延、带宽灵活、智慧运营的全光算力网络,以确定性运力释放无限算力,实现‘算-网’深度融合。”

面向多样性计算,华为聚焦硬件、基础软件等根技术的创新和研究,形成面向通用计算的鲲鹏计算产业和面向 AI 计算的昇腾计算产业。

鲲鹏方面,华为目前通过主板开放已经发展了超过 10 家整机合作伙伴,去年整机伙伴发货占比已经超过 80%。已有 3500+伙伴、10000+解决方案通过鲲鹏兼容性测试认证。在基础软件领域,华为开源了欧拉操作系统、openGauss 数据库,目前国内主流的操作系统和数据库厂家均已经推出基于 openEuler、基于 openGauss 的商业发行版。鲲鹏计算产业,已经发展到 80 万+开发者的规模。

同时,华为将自己在操作系统领域十余年的产品技术积累开放出来,2019 年正式开源欧拉操作系统。2021 年欧拉全新升级,从服务器操作系统,升级为数字基础设施的开源操作系统,支持服务器、云计算、边缘计算、嵌入式等全场景。去年十一月,欧拉开源操作系统,正式捐赠给开放原子开源基金会,从企业主导到产业共建、社区自治,汇聚更多创新力量。欧拉正在成为多样性计算首选的开源操作系统。

在昇腾 AI 计算领域,华为打造昇腾 AI 基础软硬件平台,坚持全栈开放创新,涵盖 Atlas 系列硬件、异构计算架构 CANN 5.0、全场景AI框架昇思MindSpore、昇腾应用使能 MindX 以及 AI 应用使能 ModelArts 等。2020 年 3 月,昇思MindSpore AI框架开源,并逐渐发展为国内最活跃的 AI 开源社区,目前发展了 70 万+开发者。

张勤表示,在计算中心与算力网络的建设过程中,传统的数据中心是分层解耦、部件堆叠的模式建设的,面临算力利用率低、能耗高等诸多挑战。伴随着算力需求多样化、高功率高密度、液冷技术以及全栈融合建设的发展,数据中心全栈一体化建设正在成为趋势。华为基于“鲲鹏+昇腾”多样性算力底座,推出了一体化集群计算解决方案。通过 DC as a Computer 的全栈设计与优化,L0 到 L3 的多层协同联动,实现更高的算力利用率和更高的能效比。

目录
相关文章
|
弹性计算 数据可视化 Serverless
函数计算FC3.0评测|2.0的蜕变
函数计算FC3.0评测|2.0的蜕变
120347 18
|
3月前
|
机器学习/深度学习 人工智能 算法
神经形态计算:模拟大脑的计算方式
【10月更文挑战第11天】神经形态计算作为一种新兴的计算范式,正以其独特的优势和广阔的应用前景吸引着越来越多的关注。通过模拟大脑的计算方式,神经形态计算不仅能够提高计算速度和能效,还能在处理复杂任务时展现出更高的智能水平。我们有理由相信,在未来的发展中,神经形态计算将为我们带来更多的惊喜和突破,引领我们进入一个全新的计算时代。
|
5月前
|
人工智能 安全 算法
量子计算对传统计算的影响:重塑计算领域的未来
【8月更文挑战第26天】量子计算作为新兴技术正从理论步入实践,其独特的能力正在重塑计算领域。通过利用量子比特的叠加态特性,量子计算在处理特定问题上展现出了超越传统计算机的优势,尤其是在大规模质因数分解、优化问题及复杂物理系统模拟方面。它不仅带来了强大的计算能力,还对传统加密算法构成挑战,促使开发新的量子加密技术。此外,量子计算技术的发展将进一步推动计算机科学、数学等领域进步,并在物理模拟、金融、人工智能等多个领域拓展应用。尽管面临技术成熟度、制造成本及可靠性等方面的挑战,但随着技术的进步,量子计算有望在未来取得突破性进展,为社会带来更多便利、高效和安全的计算体验。
|
2月前
|
存储 人工智能 缓存
【AI系统】核心计算之矩阵乘
本文探讨了AI模型中矩阵乘运算的优化实现及其在AI芯片设计中的重要性。文章首先介绍了卷积操作如何转化为矩阵乘,接着阐述了矩阵乘的分块(Tiling)技术以适应芯片内存限制,最后总结了几种常见的矩阵乘优化方法,包括循环优化、分块矩阵乘法、SIMD指令优化等,旨在提高计算效率和性能。
63 0
|
Java Serverless Python
函数计算评测
函数计算评测
|
机器学习/深度学习 人工智能 芯片
一文详解多模态大模型发展及高频因子计算加速GPU算力 | 英伟达显卡被限,华为如何力挽狂澜?
近年来,全球范围内的芯片禁令不断升级,给许多企业和科研机构带来了很大的困扰,需要在技术层面进行创新和突破。一方面,可以探索使用国产芯片和其他不受限制的芯片来替代被禁用的芯片;另一方面,可以通过优化算法和架构等方法来降低对特定芯片的依赖程度。
|
并行计算 固态存储 Ubuntu
基因组大数据计算: CPU和GPU加速方案深度评测
基因组大数据计算: CPU和GPU加速方案深度评测
302 0
基因组大数据计算: CPU和GPU加速方案深度评测
|
8月前
|
人工智能 数据挖掘 大数据
随着AI算力需求不断增强,800G光模块的需求不断增大
随着AI算力需求增长和硅光技术进步,光模块产业正经历快速发展,尤其在400G、800G及1.6T领域。到2024年,硅光方案将广泛应用于高带宽光模块,推动技术更新速度加快。800G光模块因高速、高密度和低功耗特性,市场需求日益增长,将在2025年成为市场主流,预计市场规模将达到16亿美元。光模块厂家需关注技术创新、产品多样化和产能提升以适应竞争。
434 1
|
机器学习/深度学习 人工智能 架构师
AI框架跟计算图什么关系?PyTorch如何表达计算图?
目前主流的深度学习框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把 AI 系统化的问题形象地表示出来。 本节将会以AI概念落地的时候,遇到的一些问题与挑战,因此引出了计算图的概念来对神经网络模型进行统一抽象。接着展开什么是计算,计算图的基本构成来深入了解诶计算图。最后简单地学习PyTorch如何表达计算图。
206 0
|
存储 人工智能 弹性计算
重构计算,驱动视界:阿里云视觉计算思考与实践
2023年3月23日14:00(中国时间),NVIDIA GTC开发者大会阿里云开发者社区观看入口正式开放,阿里云弹性计算产品专家张新涛带来了题为《重构计算,驱动视界:阿里云视觉计算思考与实践》的分享
重构计算,驱动视界:阿里云视觉计算思考与实践

热门文章

最新文章