Intel技术专家:oneAPI 开放式加速计算|龙蜥大讲堂第114期

简介: 这次分享的主题是《oneAPI 开放式加速计算龙蜥大讲堂第 114 期》的主要内容。主要分为四个部分:1. 发展背景2. 什么是 oneAPI3. 产品应用4. 总结展望

Intel技术专家:oneAPI 开放式加速计算|龙蜥大讲堂第114期


内容分析

1. 发展背景

2. 什么是 oneAPI

3. 产品应用

4. 总结展望


image.png

 

01.发展背景 

亲爱的社区成员们,杜伟在这里与大家分享在龙蜥社区共同推进的一个开放标准和开源项目——oneAPI。

image.png

在过去的十年里,加速计算的需求在产业界持续快速增长。特别是开发人员,他们开始使用各种硬件设备,这些设备日益多样化。除了常见的 CPU,GPU 以及一些专用应用领域的硬件加速器,甚至 PGA 也逐渐进入人们的视野,并在特定领域找到了它们的应用。

看一下 2023 年的一份开发者调查报告。报告指出近一半的开发者反馈他们在异构系统上进行开发,即在一个系统中同时使用两种截然不同的处理器或核心计算硬件。

对于开发人员而言,这并非易事,因为它带来了挑战。开发人员需要面对完全不同的两种硬件架构以及相应的编程模式。API 规范的出现正是为了解决这一困境,旨在为开发人员提供一种跨不同架构的、开放的、基于标准的统一编程模式。开发人员在部署数据密集型工作负载时,能够利用不同的硬件架构,如 CPU、GPU 或其他加速器。这使得代码具有可移植性和性能的可移植性。因此,开发人员能够像使用 Java 编程语言一样编写一套代码,使其能够在更多不同的硬件上运行。过去 Java 已经能够支持 X86 处理器、ARM 处理器以及一些 PowerPC 等大型和中型主机。我们也期待产业界共同努力,推动这一进程。

在 oneAPI 这一开放标准和多架构异构编程模型的支持下,代码的可迁移性和性能的可迁移性得以实现。

image.png

 

02.什么是 oneAPI

简单探讨一下 oneAPI 究竟是怎样的一种技术。以 WIFI 为例,它有一个官方名称叫做 UXL,代表统一加速(unified acceleration)。UXL 是 Linux 基金会下的一个联合开发项目,即 joint development foundation 项目。它始于 2019 年,旨在推动 API 行业规范和倡议的技术演进。去年,它被纳入 Linux 基金会的范畴。其目标是帮助开发人员摆脱一系列专有软件环境的束缚,通过开放标准和开源实现,将代码的可迁移性和性能的可迁移性选项交到开发人员手中。

image.png

接下来深入了解 oneAPI。首先,oneAPI 最初是由 Intel 发起的,基于行业客户的倡议,旨在异构计算平台上解决软件和代码的可移植性以及性能的可迁移性问题。它采用一种统一的开发语言,支持跨平台软件开发。使用 oneAPI 的开发人员可以享受到以下好处:首先,可以自由地做出最佳选择。开发人员可以借助 YAPI 和 UXL 提供的跨平台特性,轻松突破单一平台和独家供应商的依赖,进而基于开放标准,如 SQL,扩展出基于 SoC++ 标准的编程语言模式和模型。这样可以改进整个软件,使其能够在不同的硬件加速设备上运行,无论是 CPU、GPU 还是我们刚刚提到的其他专属加速硬件从而实现软件代码具有更长的生命周期。其次,oneAPI 可以充分释放产品平台中所有硬件的性能。它可以帮助我们探索和开发不同硬件的优秀性能,并发挥各自独特的优势。例如,CPU 具有通用计算的优势,GPU 在特定领域如图形图像或 AI 计算矩阵计算方面具有特性,而其他专属应用加速器也有其设计初衷及擅长的技术计算领域。这样就能形成一个对每个硬件都能充分发挥其长处,同时避免短处的环境,充分发挥不同系统,尤其是异构系统中每个硬件组件的性能优势。

image.png

 

03.产品应用

第三,YAPI 或 UXL 也非常有利于产品化,能够快速开发出高性能的软件。看这张图最下面是一些不同的硬件,包括 CPU、GPU、USBGA 等。例如,AI 加速硬件可以在不同的异构硬件上运行。我们在这些硬件之上定义了一个称为硬件接口的抽象层,我们称之为 Highway Abstraction Layer,也称为 Level Zero。Level Zero 是一个硬件抽象层,它屏蔽了不同硬件的差异,为上层软件开发提供了统一的标准硬件接口。在这个相对统一的硬件接口之上定义了 YAPI 的工业标准。工业标准主要包括两个主要部分:第一部分称之为 Direct Programming,即直接式编程;第二部分,我们称之为 API-based Programming,即基于 API 的函数式编程。在直接编程方面,主要是利用了对 SoC++ 标准语法规范支持的扩展 SQL。通过 SQL 可以对接或针对不同的异构计算平台使得不同的厂商、不同的架构、不同的硬件平台和加速硬件都可以使用这种 SQL 以及 C++ 这样的直接编程方式。

使用同一种语言就可以实现跨平台的硬件开发。当然,对于广大开发者来说,使用 SQL 或 C++ 进行开发有一定的难度和学习曲线。在函数式编程方面,它基于特定领域,提供了许多加速库。这些加速库针对不同领域会有不同的算子算法以及相关实现。常用常见的一些数学函数或线性代数的数学函数库多线程和并行化的用于并行化的标准模板 one DPl 还有,用于数据分析和机器学习的 one DAL 以及用于深进深度神经网络的 one DNN 以及一些通讯机器之间节点之间的通讯等这方面的东西那么正是因为有这些高性能的函数库除了可以使用诸如左侧所示的 C++ 编程模式外,我们还可以利用多种广为人知的编程语言,例如 C、C++、Java 等,通过函数式编程方法调用底层的异构计算设备,包括 CPU、GPU 等。再往上是中间件和框架层,这些是产业界和工业界广泛使用的工具。

例如,在人工智能领域有 PYTORCH、TENSORFLOW;在数据科学领域,有 PSYCHLEARN、XGBoost ;以及在 AI 部署领域有 OPEN 等。这些产业界常用的中间件或框架,都能够通过工业标准 API,利用直接编程或函数式编程,通过底层硬件抽象层来实现。

最后,我们探讨了不同类型的 CPU 和 GPU,包括但不限于同一系列的处理器,例如 ARM 架的 CPU、RISC-V 的 Intel X86 ,以及其他加速器或处理器硬件。

image.png

现在回顾一下 YAPI 的宗旨它旨在支持多种硬件架构,包括 Intel 和非 Intel 硬件,以及 GPU 领域中的 AMD、NVIDIA 等。整个 YAPI 行业开始涉足这一领域的工作实际上,自 2019 年起,我们就开始罗列了一系列相关工作。这些工作自 2019 年启动至今,已经持续了近 4  5 年。最初,它只是一个行业共同的梦想和愿景,而现在它已经发展成为众多厂商乃至行业内的公司共同参与和推动的事业。

我们得到了 Linux 基金会以及整个产业界的广泛支持和帮助。

image.png

现在,让我们来看看 UXL 这边的三个主要任务。首先,我们的第一个目标是为所有加速器构建一个支持多架构、多供应商的软件生态系统。其次,基于开放标准,我们致力于构建一个统一的异构计算生态系统。第三旨在构建并扩展加速计算的开源项目。

接下来看 UXL 基金会或开源项目组织中的主要 steering member。其中包括 ARM、华为、Google Cloud、Imagination Technologies、Intel、Alibaba Cloud、SUSE、Xilinx 和 VMware 等。此外,还有更多贡献代码、标准和规范的合作伙伴。

image.png

在 UXL 基金会内部,它分为几个部分。首先,有一个名为 Technical Steering Committee 的组织,其架构与一般开源社区的开放治理架构非常相似。Technical Steering Committee 负责处理技术方面的工作以及制定相关规则。

此外还有 special interest group 和 working group 这两个层面。Special interest group 主要细分为 AI、硬件、语言、数学、安全等几个细分领域,在这些领域中,不同的小组进行相应的工作。

Working group 则主要专注于规范和开源两个分支。在规范方面,主要工作是制定和演进 oneAPI specification,即 oneAPI 规范。另一个分支,即开源分支,主要负责代码实现、工程实现,包括各种函数库、编译器以及各种组件和套件。实际上,任何人都可以参与到 LINUX foundation 下的 UXL SIG 和相关开源项目中。如果想要对整个标准规范做出贡献,则需要成为至少是一个成员,或者通过评估后签署反馈协议。签署完毕后,就可以向 UXL 的技术指导委员会和 working group 递交技术反馈和新功能建议。

image.png

这里提到的是对整个 UL 社区的音效贡献,包括相关函数和规范,以及整个 YAPI 技术规范 API specification,硬件抽象层 Level Zero,以及一些相应的库,例如 Dpl、DN、Ccl One Doll、TVB 和 PL 等函数库在整个 oneAPI语言和函数部分尤为重要。

image.png

需要强调的是在直接编程方面,oneAPI 中的主要编程语言是 C++,并且完全遵循 ISO C++规范。目前,我们选择遵循的是 ISO C++ 的 17 版本。在此基础上,通过 Khronos  Group 的 SQL 编程模型,我们扩展了对异构计算设备和硬件的支持。

image.png

接下来看基于统一编程语言和相关实现的全景图。假设您有一个遵循 C++规范的 SQL 程序,希望在不同的异构设备和组件上运行,您可以使用 SYCL runtime 技术,通过编译器将 kernel 函数分为在主机端运行和在加速器端运行的两部分。加速器端可以是 CPU、GPU、FPGA,或者是针对计算机视觉、语音处理等特定应用构建的专用硬件设备。在这里,通过编译器技术,会生成称之为 Intermediate Representation(IR)的中间表达式。

当然,在 YAPI 或 UL 的范畴内,这种 IR 被为 Spur。Spur 实际上是一种中间表达式。利用 Spur,在最终向目标硬件编译时,可以充分利用这种中间抽象层,类似于 Java 的 Byte Code,以最大限度地保持代码的运行效率。同时,它还能最大限度地利用各种底层硬件,以便在特定硬件上实现最佳运行效能。SYCL 支持多种编程模式,包括平台和设备的选择、缓冲器 Buffer 的创建以及数据在不同硬件间同构或异构的移动。此外,还包括核函数的编译、依赖管理以及调度等方面。

image.png

接下来看一下整个产业界中 SYCL 实现的全景图。大家可以看到,在左侧最显眼的位置,展示了 Intel 在 SYCL 领域所做的工作。这包括了对自家 CPU 的支持,以及对 AMD 等 X86 架构 CPU 的支持。Intel 还提供了对自家 CCPUGPU 和 FPGA 的支持,并通过合作厂商,如 AMD 和 NVIDIA 的 GPU,扩展了其支持范围。在接下来的几张幻灯片中,我将向大家介绍我们是如何通过统一的 SYCL 支持 NVIDIA 或 AMD 的 GPU,以实现异构加速计算的。其中 Co Play 公司是一个关键角色。该公司于去年 5 月被 Intel 收购,目前是 Intel 的全资子公司,专注于相关研究。它提供的实现名为 COMPUCPP,支持 Intel 的 CPU 以及 ARM 架的 CPU,PowerVR 的 GPU,以及 RENOSIS,这是日本的处理器品牌,还有 AMD 等计算硬件。

右侧部分介绍的是 Adaptive C++,这是海德堡大学的一个项目,也是一个开源项目。整个项目支持 Intel、AMD 和 NVIDIA 的硬件。

image.png

在下一页,大家可以看到更多全球产业界的合作伙伴,包括来自其他国家机构在 SYCL 实现方面的探索。这些合作伙伴包括一些厂商和研究伙伴,他们专注于自研加速器以及代码和性能可移植性的研究。从 2019 年起,我们见证了 YIPI 或 SYCL 技术愿景的实现。目前,这不仅仅是一家公司、一个人或一个组织在奋斗,而是整个产业界众多合作伙伴和同行者共同在这一领域进行有益的探索。目的是为了更好地研究代码的可移植性以及性能的可移植性,而且是在一个统一的编程环境中进行。

image.png

在这一过程中看到产业界已有大量存量代码,特别是像 KDA 这样的代码。UXLL 和 YAPI 项目中提供了一个开源工具 SYCHOMATIC,它帮助大家将 PUA 代码迁移到 SYCL。这是一个开源工具,名为 SYCHOMATIC。同时,Intel 也推出了一个产品化的解决方案,即 DPC ++的 compatibility tool,简称 DPCT。这两个工具本质上是相同的,它们都能将 CUDA 代码迁移到 SYCL,并提供逐行的自动注解。对于无法完全迁移的代码,它们也会提供相应的迁移建议。迁移完成后,您的 SYCL 代码在调试无误后,可以利用 UXL 和 YAPI 的多种实现,无论是 HPSICO 的实现,Intel 的实现,还是其他第三方厂商和组织机构提供的开源实现,都可以在各种不同的硬件加速设备上自由运行。这样代码就不会被绑定在特定硬件或厂商的计算和加速硬件上,使得您的 SYCL 代码能够同时在 AMD 的 GPU、ARM 的 CPU,Intel 的 CPU,以及其他 GPU 上运行。

通常情况下,大约 90%的代码可以通过 SYCL Magical 和 DPCT 工具完成迁移,而剩下的 10%可能需要手工迁移和优化调整。SYCL Magical 遵循 APACHE2.0 许可证,并带有 LLNL 的例外条款。SYCL Magical 的代码托管在 GITHUB 上

image.png

这里提供了一个关于 SYCL 运行时的简单介绍。在展示的架构中,最上层是 SYCL 的宿主主机,其下是 SYCL 或 DPC++的库以及 SYCL API。接下来的一层展示了硬件抽象层,它通过不同的硬件抽象方式,能够与例如 Intel 的硬件进行对接。Intel 可能会选择使用 Level Zero 来实现其 CPU 或 GPU。此外,硬件抽象层也支持 Open CL 等实现,能够对接 Intel 的 GPU 和 FPGA。通过像 CUDA 这样的插件,可以将代码与 MVIDIA 的 GPU 硬件对接,或者通过 HIP 插和 HIP 运行时支持对接 AMD 的 GPU 和计算硬件。

因此,总结这种插件架构使得用户能够通过中间表达式的方式,将 C++代码抽象化以适应不同的硬件。通过硬件编译器,可以针对 NVIDIA 的 PTX、Intel 硬件、AMD 硬件或其他国产自主可控的 GPU 和加速器进行目标编译。当然,每个硬件厂商都需要提供类似 Open CL 的对接组件,以完成这一过程。

image.png

刚才讨论了整个运行时的结构,现在我将向大家展示之前提到的 Codeplay 公司。该公司在去年 5 月被 Intel 收购后,为 Intel 贡献了开源社区的代码,并参与了 UXL 和 YIPI 社区的发展。Intel 还推出了一款产品。Codeplay 为这款产品提供了一个 API 插件,它支持将 SYCL 代码运行在 NVIDIA 和 AMD 的硬件上。如果您感兴趣,可以访问 Codeplay 的官方网站获取更多信息。Codeplay 还发布了一些博客文章,展示了原始的 QA 代在 NVIDIA 硬件上的运行情况,以及通过 SYCL 转换后在相同硬件上的性能对比。性能对比显示,在大多数情况下,不同硬件组件和模块的运行性能差异是可以接受的,通常在 5% 到 10% 之间。在某些情况下,SYCL 版本的代码在 NVIDIA 硬件上的运行性能甚至超过了 CUDA 代码。因此,通过这种方式,开发人员可以自由选择目标硬件来运行代码,无论是 AMD、Intel 还是 NVIDIA 的加速器,都能确保代码的跨架构和跨平台可移植性。这意味着代码真正自由,可以轻松迁移到不同的硬件厂商和加速器上。

image.png

除了众所周知的 Intel XR6 架构处理器和 AMD 的加速器等硬件,还有其他行业合作伙伴加入了 YIPI 和 u excel 的生态系统和技术愿景。在这里,我们可以看到富士通的身影。富士通在日本是一家知名的计算平台公司,为名为富岳的科学计算平台提供了 arm 64 架构的处理器集群。富岳科学计算平台曾一度在全球科学计算和高性能计算榜单上占据首位。在这个硬件集群和 HPC 平台上,他们利用了 oneAPI 中的 oneDNN(深度神经网络库),将这些实现迁移到了 arm 64 架构上,并取得了显著的成就。与富士通自己原有的深度神经网络库函数相比,性能提升了几十倍甚至几百倍。因此,在这些方面,大家可以参考网页底部的官方博客和相关论文。

  image.png

我们看到在龙芯操作系统上,Intel 也与龙芯有着广泛的合作。我们为龙芯操作系统及其下游的阿里云 Linux 等提供了支持。如果需要安装 oneAPI 中的组件和编译器等,可以通过访问 Intel 官方网站下载相关产品化的实现,即 Intel oneAPI 产品。也可以通过 Intel 的 YUM 仓库访问这些资源。此外,龙芯这边也提供了 oneAPI 的 PAL(平台抽象层),这些都可以让大家访问到代码、预编译组件或一些其他组件,从而为龙芯操作系统提供对 oneAPI 的支持。

image.png


04.总结展望

除了目前的分享,我们后续还将邀请其他同事介绍更多关于我们在龙蜥地区实施和应用 UXL(User Experience and User Interface)的实例。在此,我将简要介绍一些情况。在接下来的大讲堂课程中,我们将进一步深入探讨。例如,在龙蜥操作系统 23.1 版本中,我们已经应用了 Intel oneAPI 提供的技术接口,使得像最新的千万级大语言模型能够在 Intel 的 CPU(如酷睿系列)以及 GPU(包括 Intel Arc A770 等)上成功运行。图中展示的 oneAPI 库函数中,有三个组件已经在龙蜥 23.1 产品中实现落地。其中包括 DPCKB,这是一个结合了 C++和 SQL 的组件。另外,还有两个组件正在推进过程中。在 Level Zero 层面,我们可以看到,像 User Mode Driver 以及 Intel Compute Runtime 等组件及相关实现已经在龙蜥 23.1 版本中落地。

image.png

我们期待与各位研发同事及小伙伴们携手合作,共同推动 UXL 和 YAPI 在龙蜥地区的深入合作和技术落地。接下来的这一页,我们将简要介绍 Intel 除了制定 API 标准规范和向开源社区贡献代码外,还基于开源实现进行了哪些产品化的开发。我们的产品化实现支持 Intel 的 CPU、GPU 和 FPGA,并通过 Codeplay 技术兼容 NVIDIA 和 AMD 的 GPU 设备。在这个产品系列中,我们提供了编译器,包括 Intel 专业版的 C++编译器,以及支持多种编程模式,如 C++、SQL、Python 和 OpenMP 等。再往上有性能库,这是 Intel 自家产品化的实现,包括 MKL、OneDNN、OneAPI 等,以及相关的性能调优工具和兼容性工具,例如 EPCT 和 Python 优化包。

更进一步提供了框架层面的支持,包括对数据科学常用库如 Pandas、NumPy、SciPy 的支持,以及对当前产业界热门框架如 TensorFlow、PyTorch、OpenVINO 等的支持。我们希望通过这些产品化的实现,为大家在基于 Intel 硬件的平台上提供一个相对完整的、基于 UXL 和 YPI 的解决方案。

image.png

这里展示了 Intel 在 PYTORCH 框架层面的实现和扩展。可以看到,Intel 已经开展了一系列相关工作,包括王迪恩的 CPU-GPU 内核优化、C++/GPU SQL 语言支持等。这些工作不仅涉及 CPU 和 GPU 的性能测试,还充分利用了底层硬件资源,以 PYTORCH 这一当前业界热门的框架,加速 AI 应用。我们期望通过这种方式,支持大家在 AI 领域的不同用例和加速器需求。因此,我们也希望借助产业界的共同努力,依托 SYCL 和 oneAPI开放标准,与 CHAOXING Group、标准 C++ 以及其他产业界合作伙伴,如 LM 编译器、PYTORCH 以及硬件供应商如 Respect、Automotive Foundation 等,共同推动行业发展。我们同样重视与操作系统合作伙伴致力于在操作系统层面以及操作系统之上,基于相关操作系统构建特定行业或产业界的应用。

image.png

在此基础上 Intel 的第四代和第五代至强可扩展处理器,以及其中的高级矩阵扩展和 AVX-512 等加速指令集,能够充分利用 YAPI。例如,WD-NYMKILL 等加速数据库能够提升大家在 AI 部署方面的性能,充分发挥 Intel 第四代和第五代至强可扩展处理器的硬件性能。

image.png

此外,我们与龙蜥社区也有广泛合作,社区为用户提供了多种实验场景。例如,我们利用第四代至强可扩展处理器和基于 Aliyun Linux 的 ECS 实例,部署了 GPT 大型语言模型,供用户在阿里云 Linux 和 Intel 的 YPI 及相关硬件上体验。

image.png

另外,阿里云和云镜像项目也在进行中,该项目涉及千万级代言模型,利用 Aliyun Linux 容器化技术进行模型部署。未来,我们也将继续与社区合作,推动 LongXin、UXL、YAPI 以及 Intel 硬件的发展,包括 Intel 产品的开源实现等,共同推进异构计算,使大家能够用一套代码在不同的硬件上运行自己的程序和应用。上面那可以是不同的 CPU 也可以是不同的 GPU 甚至说在 CPU 和 GPU 这边也可以跨不同的厂商,可以跨 on 可以跨这个 require,可以跨 Intel 也可以在 AMD 的 GPUM,VIDIA 的 GPU 国产的自主可控的一些 GPU 以及 Intel 的个 GPU 上面实现一套代码这个技术愿景旨在实现一个能够高效运行并充分利用各种硬件性能的系统。

image.png

今天简要介绍的大讲堂技术专题就到此为止。同时,欢迎大家关注龙蜥公众号,并通过扫描二维码加入我们的社区交流群。

image.png

接下来往期回看和相关课件,也都可以通过扫码获取。本期的相关资料也将分享给社区成员。此外,Intel ark sick 的技术专家团队将定期推出更多大讲堂课程,敬请持续关注我们的项目和讲堂内容。

问题是关于 PYTORCH API 适配的,想询问是否已经可用。

我们在积极进行 PYTORCH 的 Upstream 工作。目前,我们持续在进行两部分的 Upstream 工作。由于 Intel 是 PyTorch Foundation 的高级会员,我们正全力以赴推动社区及相关组件整合进 PYTORCH 的 Upstream。除了 Upstream 工作,Intel 还在 PYTORCH 标准版本的基础上进行了一些扩展。这些扩展被称为 Intel PyTorch Extension,它们充分利用了异构计算组件,如 CPU 和 GPU 等硬件的优势。通过 PYTORCH 的生态系统,这些扩展使得合作伙伴能够更好地利用底层的异构设备。因此,大家可以访问 Intel 的相关资源,了解 Intel PyTorch Extension 部分,这部分内容展示了 Intel 在于 CPU 和 GPU 等异构设备支持方面在 PYTORCH 框架上所做的工作。未来,这些工作将逐步融入 PYTORCH upstream,成为主流。TENSORFLOW 的情况也类似,我们也在进行相关工作,包括一个名为 Intel Extension for Tensorflow 的项目。在这一层面,我们针对 TENSORFLOW 进行了扩展,增强了其对异构计算设备的支持,特别是对 Intel 平台的支持。

于 API 的应用场景和适用对象YAPI 是一个通用的实现,因此它适用于多种领域,包括但不限于高性能计算、科学计算、人工智能等。只要计算任务涉及异构计算,或即便是同构计算,YAPI 都能发挥作用。例如,如果你的应用仅在 CPU 上运行,那么你可以使用 C++和 SQL 来构建应用。当你的应用需要在特定加速硬件上运行时,源代码几乎不需要大幅修改,就能适配 GPU 或他 YAPI 支持的加速硬件。因此,并没有特定场景是必须使用 YAPI 的

image.png

这里有一个 Intel 的产品,我将向大家解释。这是一个基于 Intel 的 API 产品化实现。假设你有一些 C++ 代码需要在不同硬件上运行,比如 CPU、GPU、FPGA,你可以使用 YAPI。对于数据科学应用也可以利用这一实现来充分利用底层硬件的加速特性,包括 CPU 和 GPU 的加速功能。当你使用 TENSORFLOW、PYTORCH 或 Open CL 进行 AI 相关工作时,同样可以借助这些框架的扩展,利用 CPU、GPU、FPGA 等硬件的能力。

基本上结束今天的讨论。刚刚提到的社区活动于 Intel 的云服务和 ECS 部署 GPT2 大型语言模型大家可以查看相关信息。感谢大家的参与。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
打赏
0
5
6
0
1006
分享
相关文章
Intel Linux 内核测试套件-LKVS介绍 | 龙蜥大讲堂104期
《Intel Linux内核测试套件-LKVS介绍》(龙蜥大讲堂104期)主要介绍了LKVS的定义、使用方法、测试范围、典型案例及其优势。LKVS是轻量级、低耦合且高代码覆盖率的测试工具,涵盖20多个硬件和内核属性,已开源并集成到多个社区CICD系统中。课程详细讲解了如何使用LKVS进行CPU、电源管理和安全特性(如TDX、CET)的测试,并展示了其在实际应用中的价值。
Intel® oneAPI 在龙蜥社区里面的支持情况分享|龙蜥大讲堂116期
本次分享的主题是 Intel® oneAPI 在龙蜥社区里面的支持情况分享。主要分为四个部分: 1. What is Intel® oneAPI 2. Intel® oneAPI infrastructure 3. Anolis Intel® oneAPI enabling status 4. Qwen2 demo
基于Intel RDT平台技术的系统资源隔离能力提升|龙蜥大讲堂103期
龙蜥大讲堂103期探讨了基于Intel RDT平台技术在Koordinator项目NRI模式中提升系统资源隔离能力。课程分为三部分:1) NRI与Koordinator,介绍NRI框架及其应用;2) RDT与Koordinator,讲解RDT技术如何优化资源分配,提高集群效率;3) RDT技术发展,展望未来RDT技术的演进方向及在Koordinator中的集成进展。
阿里云g8i服务器CPU采用2.7 GHz主频的Intel Xeon(Sapphire Rapids) Platinum 8475B处理器
阿里云g8i服务器CPU采用2.7 GHz主频的Intel Xeon(Sapphire Rapids) Platinum 8475B处理器,阿里云服务器ECS通用型实例规格族g8i采用2.7 GHz主频的Intel Xeon(Sapphire Rapids) Platinum 8475B处理器,3.2 GHz睿频,g8i实例采用阿里云全新CIPU架构,可提供稳定的算力输出、更强劲的I/O引擎以及芯片级的安全加固。阿里云百科分享阿里云服务器ECS通用型g8i实例CPU计算性能、存储、网络、安全、不同CPU内存配置性能参数及使用场景
592 0
阿里云g8i服务器CPU采用2.7 GHz主频的Intel Xeon(Sapphire Rapids) Platinum 8475B处理器
阿里云ECS服务器g7、c7和r7处理器CPU采用Intel Xeon(Ice Lake) Platinum 8369B
阿里云第七代云服务器ECS计算型c7、通用型g7和内存型r7实例,CPU处理器采用2.7 GHz主频的Intel Xeon(Ice Lake) Platinum 8369B,全核睿频3.5 GHz,计算性能稳定。c7、g7和r7区别CPU内存比,阿里云服务器网来详细说下阿里云第七代云服务器c7、g7和r7实例CPU性能评测:
359 0
阿里云Intel Xeon(Sapphire Rapids) Platinum 8475B处理器CPU
阿里云Intel Xeon(Sapphire Rapids) Platinum 8475B处理器CPU,阿里云服务器ECS通用型实例规格族g8i采用2.7 GHz主频的Intel Xeon(Sapphire Rapids) Platinum 8475B处理器,3.2 GHz睿频,g8i实例采用阿里云全新CIPU架构,可提供稳定的算力输出、更强劲的I/O引擎以及芯片级的安全加固
1312 0
阿里云Intel Xeon(Sapphire Rapids) Platinum 8475B处理器CPU基频2.7 GHz,全核睿频3.2 GHz
阿里云Intel Xeon(Sapphire Rapids) Platinum 8475B处理器CPU基频2.7 GHz,全核睿频3.2 GHz
559 0
阿里云Intel Xeon(Sapphire Rapids) Platinum 8475B处理器CPU基频2.7 GHz,全核睿频3.2 GHz
龙蜥白皮书精选:龙蜥全面支持 Intel 第四代可扩展处理器 SPR 平台
EROFSEROFS是为高性能只读场景量身打造的内核文件系统,提供了多层镜像、透明压缩等特性,于Linux 5.4正式合入Linux主线。
龙蜥白皮书精选:龙蜥全面支持 Intel 第四代可扩展处理器 SPR 平台
阿里云CPU服务器c7、g7和r7处理器Intel Xeon(Ice Lake) Platinum 8369B
阿里云第七代云服务器ECS计算型c7、通用型g7和内存型r7实例,CPU处理器采用2.7 GHz主频的Intel Xeon(Ice Lake) Platinum 8369B,全核睿频3.5 GHz,计算性能稳定。c7、g7和r7区别CPU内存比,阿里云服务器网来详细说下阿里云第七代云服务器c7、g7和r7实例CPU性能评测:
401 0
Intel 处理器 macOS降级到Big Sur
将移动硬盘作安装 Mac 操作系统的启动磁盘。
4097 0

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等