【AI系统】SIMD & SIMT 与 CUDA 关系

简介: 本文深入解析了AI芯片中SIMD和SIMT的计算本质,基于NVIDIA CUDA实现的对比,探讨了不同并行编程模型,包括串行(SISD)、数据并行(SIMD)和多线程(MIMD/SPMD)。文章详细介绍了各模型的特点及应用场景,特别强调了英伟达GPU中的SIMT机制如何通过SPMD编程模型实现高效并行计算,以及SIMD、SIMT、SPMD之间的关系和区别。

前面的文章对 AI 芯片 SIMD 和 SIMT 计算本质进行了分析,结合 NVIDIA CUDA 实现对 SIMD 和 SIMT 进行了对比,本文将对不同并行的编程方式进行讲解,以英伟达 GPU 为例,讲解 GPU 的编程模型。

实现并行的编程方式

从指令级别的执行方式来看,一共有三种不同的编程模型,串行(SISD)、数据并行(SIMD)和多线程(MIMD/SPMD):

  • SISD(Single Instruction, Single Data):程序按顺序执行,每条指令依次处理单个数据。这是传统的串行编程模型,适合于简单的顺序执行任务,如传统的单线程程序。这种方式适合于简单的任务和小规模数据处理,但在处理大规模数据或需要高性能的情况下,串行编程效率较低。

  • SIMD(Single Instruction, Multiple Data):程序通过向量化或并行化指令来处理多个数据,每个处理单元独立执行相同的任务,但是处理不同的数据。程序员可以编写单一指令,但该指令会同时应用于多个数据元素。这种模型适合于需要高度并行化处理的任务,如图像处理或科学计算。

  • MIMD(Multiple Instruction, Multiple Data)/SPMD(Single Program, Multiple Data):多个处理器同时执行不同的指令,处理不同的数据,充分利用多核处理器的性能。每个处理器可以独立执行不同的程序,也可以执行相同的程序但处理不同的数据。这种模型适合于需要并发执行多个任务的场景,如分布式系统或并行计算。

从编程模型的角度看,选择合适的并行计算模型可以更好地利用硬件资源,提高程序的性能和效率。

串行执行 SISD

串行执行与 SISD(Single Instruction, Single Data)类似,以向量相加 $C[i] = A[i] + B[i]$ 的操作来举例说明,每一次 for 循环(Iter.i),都要执行一次向量 A 和向量 B 相加之后得到向量 C 的操作,在 CPU 中经常使用这种方式。一般在 CPU 中会采用流水执行,乱序执行和超长指令集(VLIW)架构来提高计算效率。

for (int i = 0; i < N; ++i) 
{
   
    C[i] = A[i] + B[i];
}

流水执行 PPE

流水执行 PPE(Pipeline Execution)是流水执行中的一种处理器架构,指令被分成多个阶段(如取指、译码、执行、访存、写回),每个阶段由一个专门的处理单元负责执行,从而实现指令的并行处理。程序执行时,多条指令重叠进行操作的一种任务分解技术,将取值-->译码-->执行分别放在未使用流水线和使用流水线中进行指令执行,在未使用流水线时每次 for 循环都要占用独立的时间分别进行取值-->译码-->执行相关操作,当使用流水线时,充分利用空余的时间去同时执行不同的指令操作,提高了指令的并行度。

流水执行 PPE

乱序执行 OOE

乱序执行(Out-of-Order Execution,OOE)中,处理器可以在不改变程序语义的情况下,通过重新排序指令的执行顺序来提高指令级并行度和性能,处理器会根据指令的依赖关系和可用资源来动态调整指令的执行顺序。当没有采用乱序执行时首先对指令 1 进行取值、译码、执行和写回,然后再进行下一个指令 2 同样的操作,此时在 CPU 执行周期内会有大量的空闲。

没有采用乱序执行

因此采用乱序执行,在 CPU 空闲时间执行指令 2,由于指令 4 的执行需要指令 1 在写回结果之后,所以需要把依赖性指令移到独立指令后,在指令 1 完全执行之后再执行指令 4,同时 for 循环由硬件通过指令动态展开。

采用乱序执行

超长指令集 VLIW

超长指令集(Very Long Instruction Word,VLIW)是一种处理器架构,其特点是一条指令可以同时包含多个操作,这些操作可以在同一时钟周期内并行执行。VLIW 处理器在编译时就将多个操作打包成一条指令,因此并行执行指令由编译器来完成,编译器的优化能力直接影响程序在超长指令字处理器上的性能,由硬件执行编译之后的并行指令,从而提高指令级并行度和性能。

超长指令字

数据并行 SIMD

数据并行主要通过循环中的每个迭代独立实现,在程序层面,程序员编写 SIMD 指令或编译器生成 SIMD 指令,在不同数据的迭代中执行相同指令,在硬件层面通过提供 SIMD 较宽的 ALU 执行单元。同样以 for 循环计算向量加法为例,在执行 VLD: A to V1 时,迭代 1(Iter.1)读取的数据是 A[0],迭代 2(Iter.2)读取的数据是 A[1],之后的 VLD、VADD 和 VST 指令也一样,硬件每次执行的指令相同,但是读取的数据不同,从而实现数据并行。

SIMD

多线程 SPMD

SPMD(Single Program Multiple Data)是一种并行计算模型,多线程 SPMD 指的是在 SPMD 模型中使用多个线程来执行并行计算任务。在多线程 SPMD 中,每个线程(Thread i)都执行相同的程序,但处理不同的数据,通过并发执行来加速计算过程。SPMD 通过循环中的每个迭代独立实现,在程序上,程序员或编译器生成线程来执行每次迭代,使得每个线程在不同的数据上执行相同的计算,SIMT 独立的线程管理硬件来使能硬件处理方式。

SPMD

SPMD 和 SIMD 不同之处在于,SIMD 在相同指令下执行不同的数据实现并行,而 SPMD 则是提出使用线程来管理每个迭代,SPMD 最终执行在 SIMD 机器上,因此发展出新的单指令多线程硬件执行模式 SIMT(Single Instruction Multiple Thread)。

英伟达 SIMT 机制

GPU 的 SIMT 实际上是具体硬件执行 SIMD 指令,采用并行编程模式使用 SPMD 来控制线程的方式。每个线程对不同的数据执行相同的指令代码,同时每个线程都有独立的上下文。执行相同指令时一组线程由硬件动态分为一组 Wrap,硬件 Warp 实际上是由 SIMD 操作形成的,由 SIMT 构成前端并在 SIMD 后端中执行。

GPU SIMT & SIMD

在英伟达 GPU 中,Warp 是执行相同指令的线程集合,作为 GPU 的硬件 SM 调度单位,Warp 里的线程执行 SIMD,因此每个 Warp 中就能实现单指令多数据。CUDA 的编程模式实际上是 SPMD,因此从编程人员的视角来看只需要实现单程序多数据,具体到 GPU 的硬件执行模式则是采用了 SIMT,硬件实现单指令多线程。

英伟达 GPU SIMT

三者间关系

SISD、SIMD 和 SIMT 按照时间轴的执行方式如下所示。

SISD、SIMD 和 SIMT 时序对比

因此综合前面的分析,SISD、SIMD、SIMT、SPMD 和 DSA 相关概念就有了一个清晰的定义和区分:

  • SIMD:指令的执行方式和对应映射的硬件体系结构。

  • SIMT:以 SIMD 指令为主,具有 Warp Scheduler 等硬件模块,支持 SPMD 编程模型的硬件架构。

  • SPMD:一种具体的并行编程模型,类似于 CUDA 所提供的编程模式。

  • DSA:具体的特殊硬件架构,NPU/TPU 等专门针对 AI 的特殊硬件架构,应用于大规模数据处理、分布式存储等场景。

值得注意的是,NVIDIA 在 GPU 架构设计中加入 Tensor Core,专门用于神经网络矩阵计算,同时支持混合精度计算,因此 NVIDIA GPU 也变成 SIMT+DSA 的模式。

方式 硬件架构 or 执行模型 方式
执行模型 Traditional SIMD (1)包含单条指令执行;(2)指令集架构(Instruction Set Architecture,ISA)包含矢量/SMD 指令信息;(3)SIMD 指令中的锁同步操作,即顺序指令执行;(4)编程模型是直接控制指令,没有额外线程控制,软件层面需要知道数据长度
执行模型 Warp-base SIMD (SIMT) (1)以 SIMD 方式执行的多个标量线程组成;(2)ISA 是标量,SIMD 操作可以动态形成;(3)每条线程都可以单独处理,启用多线程和灵活的线程动态分组;(4)本质上,是在 SIMD 硬件上实现 SPMD 编程模型,CUDA 采用了这种方式
编程模型 SPMD (1)通过单个程序,控制多路数据;(2)针对不同的数据,单个线程执行相同的过程代码;(3)本质上,多个指令流执行同一个程序;(4)每个程序:1)处理不同数据,2)在运行时可以执行不同的控制流路径;(5)在 SIMD 硬件上以 SPMD 的方式对 GPGPU 进行编程控制,因此出现了 CUDA 编程
相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
目录
相关文章
|
4月前
|
人工智能 监控 安全
提效40%?揭秘AI驱动的支付方式“一键接入”系统
本项目构建AI驱动的研发提效系统,通过Qwen Coder与MCP工具链协同,实现跨境支付渠道接入的自动化闭环。采用多智能体协作模式,结合结构化Prompt、任务拆解、流程管控与安全约束,显著提升研发效率与交付质量,探索大模型在复杂业务场景下的高采纳率编码实践。
567 26
提效40%?揭秘AI驱动的支付方式“一键接入”系统
|
4月前
|
人工智能 自然语言处理 前端开发
最佳实践2:用通义灵码以自然语言交互实现 AI 高考志愿填报系统
本项目旨在通过自然语言交互,结合通义千问AI模型,构建一个智能高考志愿填报系统。利用Vue3与Python,实现信息采集、AI推荐、专业详情展示及数据存储功能,支持响应式设计与Supabase数据库集成,助力考生精准择校选专业。(239字)
453 12
|
4月前
|
存储 人工智能 搜索推荐
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
本文介绍基于LangGraph构建的双层记忆系统,通过短期与长期记忆协同,实现AI代理的持续学习。短期记忆管理会话内上下文,长期记忆跨会话存储用户偏好与决策,结合人机协作反馈循环,动态更新提示词,使代理具备个性化响应与行为进化能力。
753 10
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
|
4月前
|
机器学习/深度学习 人工智能 JSON
PHP从0到1实现 AI 智能体系统并且训练知识库资料
本文详解如何用PHP从0到1构建AI智能体,涵盖提示词设计、记忆管理、知识库集成与反馈优化四大核心训练维度,结合实战案例与系统架构,助你打造懂业务、会进化的专属AI助手。
440 6
|
4月前
|
人工智能 JSON 安全
Claude Code插件系统:重塑AI辅助编程的工作流
Anthropic为Claude Code推出插件系统与市场,支持斜杠命令、子代理、MCP服务器等功能模块,实现工作流自动化与团队协作标准化。开发者可封装常用工具或知识为插件,一键共享复用,构建个性化AI编程环境,推动AI助手从工具迈向生态化平台。
769 1
|
4月前
|
存储 人工智能 自然语言处理
拔俗AI产投公司档案管理系统:让数据资产 “活” 起来的智能助手
AI产投档案管理系统通过NLP、知识图谱与加密技术,实现档案智能分类、秒级检索与数据关联分析,破解传统人工管理效率低、数据孤岛难题,助力投资决策提效与数据资产化,推动AI产投数字化转型。
227 0
|
4月前
|
人工智能 算法 数据安全/隐私保护
拔俗AI多模态心理风险预警系统:用科技守护心理健康的第一道防线
AI多模态心理风险预警系统通过语音、文本、表情与行为数据,智能识别抑郁、焦虑等心理风险,实现早期干预。融合多源信息,提升准确率,广泛应用于校园、企业,助力心理健康服务从“被动响应”转向“主动预防”,为心灵筑起智能防线。(238字)
488 0
|
4月前
|
人工智能 搜索推荐 Cloud Native
拔俗AI助教系统:教师的"超级教学秘书",让每堂课都精准高效
备课到深夜、批改作业如山?阿里云原生AI助教系统,化身“超级教学秘书”,智能备课、实时学情分析、自动批改、精准辅导,为教师减负增效。让课堂从经验驱动转向数据驱动,每位学生都被看见,教育更有温度。
587 0
|
4月前
|
机器学习/深度学习 人工智能 监控
拔俗AI智能营运分析助手软件系统:企业决策的"数据军师",让经营从"拍脑袋"变"精准导航"
AI智能营运分析助手打破数据孤岛,实时整合ERP、CRM等系统数据,自动生成报表、智能预警与可视化决策建议,助力企业从“经验驱动”迈向“数据驱动”,提升决策效率,降低运营成本,精准把握市场先机。(238字)
162 0
|
4月前
|
存储 人工智能 自然语言处理
拔俗AI自动化评价分析系统:让数据说话,让决策更智能
在用户体验为核心的时代,传统评价分析面临效率低、洞察浅等痛点。本文基于阿里云AI与大数据技术,构建“数据-算法-应用”三层智能分析体系,实现多源数据实时接入、情感与主题精准识别、跨模态融合分析及实时预警,助力企业提升运营效率、加速产品迭代、优化服务质量,并已在头部电商平台成功落地,显著提升用户满意度与商业转化。
458 0