AI芯片之上,华为正在放眼「下一次计算革命」

简介: 未来的计算会是什么样的形式?今天,云计算和 AI 正在改变着许多行业,但也有很多人对新技术能够做到什么表示怀疑。华为也曾是这样。

这家科技巨头在过去的几年中进行了大量内部探索,只想知道:人工智能在第四次工业革命到底有怎样的应用价值?


事实证明是可行的,今天在华为内部已经开启人工智能技术的应用,其先进的运作体系已让自身获得了很多收益——看看它在通信市场上的占有率就知道了。过去几年,很多需要耗费大量人力的工作,而今已逐步被 AI取代。


在这个过程中人们发现:人工智能仍然面临着很多艰巨的挑战。


今天的计算还主要集中在遥远的数据中心,停留在电量不足的手机终端上。而代替 IBM 专用计算的 x86 架构,在 40 多年后,随着摩尔定律的失效而开始放慢步伐,传说中将要改变世界的新技术,大部分仍停留在实验室里。

 

未来的计算,应该有怎样的愿景?


或许是包含所有场景的「智能计算」。去年 11 月,亚马逊率先发布了基于 Arm 架构的服务器芯片,并开始提供相应的云服务;2019 年 1 月,华为推出了基于 Arm 架构的服务器芯片鲲鹏 920,以及「TaiShan」服务器,引发了人们的广泛关注。在 AI 芯片之上,华为的智能计算愿景正在我们眼前逐渐展现。


AI 芯片为先


智能计算不仅仅是手机上的 NPU 和机箱中的 GPU。华为去年 10 月推出了昇腾 910 和昇腾 310 两款自研 AI 芯片,在这家科技巨头的未来构想中,它们将是华为智能计算架构的核心。在云计算和端侧等各领域全面提供高性能 AI 算力。


FE89C332-5C97-43B1-B39F-C08CF1177872.jpeg

目前华为自研的服务器和端侧芯片。


2019 年 1 月 7 日,华为又推出了ARM处理器芯片鲲鹏 920及基于此芯片的TaiShan 服务器。自此,涵盖云服务器到智能设备,甚至自动驾驶汽车等场景的 AI 芯片开始全面出炉。


鲲鹏 920 被认为是目前业内最高性能的 ARM-based 处理器,采用 7nm 制造工艺,基于 ARM 架构授权,由华为自主设计,主频可达 2.6GHz,单芯片可支持 64 核。该芯片集成 8 通道 DDR4 内存,带宽超出业界主流 46%。芯片集成 100G RoCE 以太网卡功能,大幅提高系统集成度。鲲鹏 920 支持 PCIe4.0 及 CCIX 接口,可提供 640Gbps 总带宽,单槽位接口速率为业界主流速率的两倍,有效提升存储及各类加速器的性能。


通过优化分支预测算法、提升运算单元数量、改进内存子系统架构等一系列微架构设计,华为大幅提高了新一代处理器的性能。在典型主频下,其芯片在 SPECint Benchmark 评分超过 930 分,超出业界标杆 25%。同时,能效比优于业界标杆 30%。


DBCB0115-A5F5-4349-A99F-A4CE63B100C9.jpeg

和鲲鹏芯片同时推出的还有搭载这种芯片的「TaiShan」服务器。华为表示,这些服务器相较于业界同类规格云服务器性能领先 3 倍。


华为内部一直有一种先做再说的风格,这些推出的芯片和服务器不仅推高了业界顶尖水平,也已在华为内部得到了一定程度的应用。全面布局 AI 芯片是为了加速多行业智能化的步伐。华为表示,目前,由于算力供应不平衡、部署场景要求高、云边数据无法协同互通、专业技术门槛高等原因,人工智能只能在互联网、公共安全等少数行业得以渗透普及。数据显示,全世界全行业 AI 普及率不超过4%(Source: IDC’s Cloud and AI Adoption Survey, January 2018)


正如麒麟 980 手机芯片开创全新移动端 AI 体验一样,基于华为 AI 芯片的服务器将为下一代云计算开启新的篇章。


智能计算战略


华为推出的 AI 芯片是构建面向未来智能计算战略的基础,在这之后则是「普惠 AI」战略的庞大布局。去年 12 月 21 日,华为智能计算战略正式发布,其将围绕算力、工程、架构和一体化解决方案四个方面,面向行业构建「全栈全场景」智能解决方案,希望以此加速各个行业智能化的进程。


芯片是开始,但智能计算还需要更多硬件设备,一系列的服务器产品组成了华为智能计算产品线,华为已发布智能计算系统包括:智能服务器(FusionServer)与人工智能计算架构(Atlas、TaiShan、MDC)。


其中 Atlas 人工智能计算平台包括 Atlas 200 AI 加速模块、Atlas 300 AI 加速卡、Atlas 500 智能小站、Atlas 800 AI 一体机等型号,具备高算力、低功耗和易部署的优势,而 MDC 600 移动数据中心则已经在部分自动驾驶项目中得到应用。


6F1C1FA5-FE3C-46D5-B2BF-B068D668407D.jpeg

在 2018 全联接大会上,华为推出了 MDC 600 移动数据中心。


自动驾驶研究需要对大量摄像头和各类传感器收集的数据进行分析计算,数据处理及模型训练,对硬件算力有着很高要求。


端云一体的新架构


未来的智能计算将是全场景覆盖。云端、私有云和设备端需要不同的计算能力,而不同位置的算力部署也需要统一协调。


本世纪初,亚马逊等科技巨头提出云计算概念,这一计算形式不仅接手了大量原本属于端侧的算力任务,更催生了大量新业务,带来了全新形式的科技公司。云计算以互联网和大规模计算为基础,创造了一种新的基础设施,也让交互模式发生了转变。从使用者角度来说,云计算能够提供成本更低、效率更高的服务。


相对于各自独立的传统硬件平台,云计算通过资源共享和灵活调度,可以显著降低计算成本。如今,云计算已是一种和水、电、网络通信相似的「基础设施」了。


然而在技术发展的过程中我们会发现,常规云计算的形式仍非全无缺点:很多数据如不在端侧进行处理,传输到云端会遇到网络带宽的瓶颈;一些任务对于数据处理的延迟性有很高要求;有时人们还会担忧数据上传云端之后可能暴露隐私的问题……


在这样的情形下,加入边缘设备算力,形成端云一体的统一计算架构成为了未来云计算的新趋势。


8C99942F-309B-4DA7-B388-2DA8678A94C2.jpeg

华为提出的全栈全场景智能解决方案


与数据中心庞大的服务器设施相比,边缘计算的硬件距离我们更近,甚至可以延伸到手边的 IoT 设备上。边缘计算节点与云计算中心可以形成逻辑整体。边缘计算节点负责对数据或者部分数据进行处理和存储,用以节约带宽消耗,减少反应延迟,并提高业务连续性,满足数据本地存储与处理等安全合规的要求。


在云边端架构上,华为拥有强大的工程能力和一体化能力。在 AI 基础算力上,华为可以提供从虚拟机、容器到裸金属各种形态的服务。


构建新生态


华为致力于构建更为繁荣的 ARM 生态环境,并一直在硬件、基础软件和应用三个层面推进产业合作。这家公司希望能让人工智能不再是一种高高在上的技术,而是走向大众,让每个人、每个组织都能享受到人工智能带来的价值。


对此,华为一直在行动着:2017 年,华为发布了面向企业、政府的人工智能服务平台华为云 EI;2018 年,华为发布了面向智能终端的人工智能引擎 HiAI,以及全栈全场景解决方案。今天的华为已能为企业、政府提供覆盖全面的智能计算解决方案。


华为预计,2018 年到 2025 年全球数据总量将会有 18 倍的增长。如何构建完整的 AI 生态体系,为企业与客户创造更多的价值,需要携手上下游各方来共同打造。


345EA096-E8E5-40D6-94D5-76FD61253C15.jpeg

3 月 21 日,华为中国生态伙伴大会在福州举行。在开幕仪式上,华为董事、企业 BG 总裁阎力大在演讲中对外透露,华为 2018 年企业业务收入接近 100 亿美元。


计算的提升过去主要依赖摩尔定律——即提高硬件性能,降低单位算力的成本,但随着芯片制程逐渐接近极限,AI 的算力需求正在变得难以满足。对于科技公司来说,改革芯片结构及优化硬件系统是更为有效的选择,华为将在技术领先的前提下努力建设属于新体系的产业生态。通过更高效的智能计算体系,华为希望其提供的设备能够拥有比摩尔定律更快的效能增长速度。


60 年前,以 IBM 大型机为代表的专用计算将计算产业带入了民用领域;40 年前,英特尔的 x86 架构的出世,在摩尔定律的驱动下实现了计算机的大规模普及;现在,计算产业在 AI 的驱动下来到了新的历史节点。在产业外,很多科技公司正试图打造新武器;而在产业的内部,设备和芯片厂商也正在自我进化。它们的目标是一致的:先改变自己,再去改变世界。

 

华为认为,这个历史节点的名字,叫做「智能计算」。 33A974DB-B3BE-467E-B0D4-530CF6A585C1.png



本文为机器之心原创,转载请联系本公众号获得授权

相关文章
|
3天前
|
机器学习/深度学习 人工智能 分布式计算
探索操作系统的未来:量子计算与AI的融合
【7月更文挑战第4天】在数字化时代,操作系统作为连接用户与硬件的桥梁,其发展直接影响着计算机科学的进步。随着量子计算和人工智能技术的兴起,传统操作系统面临着前所未有的挑战和机遇。本文将探讨量子计算与AI技术如何推动操作系统的进化,以及这一进程对软件架构、安全性和性能优化等方面的影响。通过分析当前技术趋势和未来展望,文章旨在为读者提供一个关于操作系统未来发展的全面视角。
|
2月前
|
机器学习/深度学习 人工智能 搜索推荐
AI计算的未来趋势是什么?
【5月更文挑战第19天】AI计算的未来趋势是什么?
37 1
|
6天前
|
人工智能 运维 Serverless
基于 Serverless 计算快速构建AI应用开发陪跑班开课啦!
云端问道第8期开课啦!参与直播间动手实操即可获得保温杯,参与直播间活动可抽奖无线充电器!!您将在课程中学习到基于Serverless技术函数计算FC实现基于Serverless 构建企业级AI应用的解决方案,降低 GPU的使用成本、减少企业或个人创业的试错成本、简化开发运维,让人人都可以拥有自己“专属”的AIGC环境成为可能!阿里云技术专家将手把手带您实操,还将针对实操中的问题进行一对一答疑!机会难得,快来参加吧!
112 5
|
26天前
|
人工智能 Python
[AI Omost] 革命性AI图像合成技术,让你的创意几乎一触即发!
Omost 是一个旨在将大型语言模型的编码能力转化为图像生成(或更准确地说,图像合成)能力的项目。
[AI Omost] 革命性AI图像合成技术,让你的创意几乎一触即发!
|
13天前
|
机器学习/深度学习 人工智能 搜索推荐
探索AI在医疗诊断中的革命性应用
随着人工智能技术的飞速发展,其在医疗领域的应用正逐步改变传统诊疗模式。通过深度学习和大数据分析,AI不仅能够辅助医生进行更准确的诊断,还能预测疾病风险并个性化治疗方案。本文将探讨AI技术在医疗诊断中的具体应用场景,分析其带来的优势及面临的挑战,并对未来的发展趋势进行展望。
|
16天前
|
机器学习/深度学习 人工智能 监控
探索操作系统的未来:量子计算与AI的融合
【6月更文挑战第21天】随着科技的不断进步,传统操作系统正面临着前所未有的挑战与机遇。本文将探讨未来操作系统的发展趋势,重点分析量子计算和人工智能技术如何推动操作系统的革命性变革。从量子操作系统的原理到AI在系统优化中的应用,文章将揭示这些前沿技术如何共同塑造更加智能、高效的计算机环境,为读者呈现一个充满可能性的未来计算图景。
|
22天前
|
机器学习/深度学习 人工智能 测试技术
探索软件测试中的AI革命
【6月更文挑战第15天】随着人工智能技术的飞速发展,软件测试领域正经历一场前所未有的变革。本文将深入探讨AI如何重塑软件测试的流程、工具和思维方式,以及这一趋势对测试工程师技能要求的影响。
56 3
|
27天前
|
人工智能 网络架构 异构计算
以LLaMa 65B模型训练实例来计算AI/HPC算力光模块数量
本文介绍了如何根据LLaMa 65B模型训练需求计算所需的AI/HPC光模块数量。在案例中,使用2048个A100 GPU,单GPU算力为156 TFLOPS。模型算力需求为546*10^21 FLOPS,预计训练时间为20天。采用两层Fat-Tree网络架构,需1024个400G网卡,48台交换机,若全用400G光模块则需4096个,交换机间2048个,网卡间1024个。大成鹏通信提供200G至800G的解决方案,并提供咨询与支持服务。
以LLaMa 65B模型训练实例来计算AI/HPC算力光模块数量
|
2月前
|
机器学习/深度学习 人工智能 算法
AI计算
【5月更文挑战第19天】AI计算
46 2
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI计算在哪些方面可以提高教育模式的效率?
【5月更文挑战第19天】AI计算可以在多个方面提高教育模式的效率,具体包括: 智能教育环境:通过机器学习和自然语言处理技术,可以创建个性化的学习环境,根据学生的学习习惯和进度调整教学内容和难度,从而提高学 AI计算在哪些方面可以提高教育模式的效率?
106 1