《多核与GPU编程:工具、方法及实践》----3.3 设计考虑

简介: 这个问题可以归结为:如何使多线程程序的行为与串行程序行为一致? 这就需要不同作用的一致性模型。一致性模型是一套规则,它定义了系统特定的行为方式。已经提出了大量一致性模型,每个模型都在效率和严格性之间权衡。其中一个实例是顺序一致性模型(sequential consistency model)。

本节书摘来自华章出版社《多核与GPU编程:工具、方法及实践》一书中的第3章,第3.3节, 作 者 Multicore and GPU Programming: An Integrated Approach[阿联酋]杰拉西莫斯·巴拉斯(Gerassimos Barlas) 著,张云泉 贾海鹏 李士刚 袁良 等译, 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

3.3 设计考虑

这个问题可以归结为:如何使多线程程序的行为与串行程序行为一致?

这就需要不同作用的一致性模型。一致性模型是一套规则,它定义了系统特定的行为方式。已经提出了大量一致性模型,每个模型都在效率和严格性之间权衡。其中一个实例是顺序一致性模型(sequential consistency model)。

在顺序一致性模型中,在共享存储器对象进行操作的所有事件应该发生在不同的时间点。此外,这些事件的时间点顺序应该符合每个线程的内部顺序。不同线程中的事件可以重排,从而使对一个对象总的事件/方法调用执行序列的效果满足串行规范(亦即与单个线程执行时的行为一致)。图3-5展示了这种顺序重排的一个实例。

这种情况下顺序一致性模型的问题在于其非组合性:将两个保证顺序一致性的软件模块组合在一起并不能保证整体满足顺序一致性。图3-6展示了一个实例用以说明这种情况,其中图3-5中的序列被复制了一份,虽然两个独立序列是顺序一致性的,但是没有办法保证两个时间线的组合依然满足顺序一致性。


9d8034d671053b2b97ceb6f45a354334b480065a

更为严格的一致性模型是序列化(linearizability)[45]:事件满足同一时刻执行一个事件并且立即生效。后一要求是由于称为序列点的需要。序列点是一个方法调用期间生效的时间点。序列点的引入有两个意义。

1.可以根据方法的序列点来进行全排序。在一个方法的开始调用和结束返回这一时间窗口期间可以以任意点作为序列点。最后的排序结果必须与考虑序列化的并发执行的一个串行执行结果一致。

2.虽然并不强制加锁(并且实际上从性能角度考虑也应该避免加锁),但是在一个方法调用期间对一个对象加锁等价于使其效果立即生效并对所有其他线程可见。最简单的方法是使用加锁机制,因此接下来的几节讨论这些机制。

每个序列化执行都满足顺序一致性,但反之则不一定。图3-7展示了一个序列化执行示例。

接下来的几节将研究两种加锁机制,虽然其在功能上是等价的,但是在同步线程时导致不同的模式。


2848c5b25825947e4999b9f1cfd602c65fe2c248
相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
人工智能 弹性计算 PyTorch
【Hello AI】神行工具包(DeepGPU)-GPU计算服务增强工具集合
神行工具包(DeepGPU)是阿里云专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力
129880 3
|
6月前
|
存储 并行计算 调度
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
本文旨在梳理作者学习路径,带领读者共同探索 GPU Kernel 性能分析从宏观到微观的技术演进。
970 24
迈向可编程观测:在GPU Kernel中构建类eBPF风格的性能探针
|
5月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
506 4
|
人工智能 Linux iOS开发
exo:22.1K Star!一个能让任何人利用日常设备构建AI集群的强大工具,组成一个虚拟GPU在多台设备上并行运行模型
exo 是一款由 exo labs 维护的开源项目,能够让你利用家中的日常设备(如 iPhone、iPad、Android、Mac 和 Linux)构建强大的 AI 集群,支持多种大模型和分布式推理。
3204 101
|
缓存 openCL 算法
关于实现Halcon算法加速的基础知识(2)(多核并行/GPU)
关于实现Halcon算法加速的基础知识(多核并行/GPU)
4490 0
关于实现Halcon算法加速的基础知识(2)(多核并行/GPU)
|
人工智能 文字识别 异构计算
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
NVIDIA-Ingest 是英伟达开源的智能文档提取工具,支持 PDF、Word、PPT 等多种格式,提供并行处理和 GPU 加速,适用于企业内容管理和生成式应用。
685 18
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
|
存储 并行计算 算法
CUDA统一内存:简化GPU编程的内存管理
在GPU编程中,内存管理是关键挑战之一。NVIDIA CUDA 6.0引入了统一内存,简化了CPU与GPU之间的数据传输。统一内存允许在单个地址空间内分配可被两者访问的内存,自动迁移数据,从而简化内存管理、提高性能并增强代码可扩展性。本文将详细介绍统一内存的工作原理、优势及其使用方法,帮助开发者更高效地开发CUDA应用程序。
|
存储 人工智能 缓存
探索AIGC未来:CPU源码优化、多GPU编程与中国算力瓶颈与发展
近年来,AIGC的技术取得了长足的进步,其中最为重要的技术之一是基于源代码的CPU调优,可以有效地提高人工智能模型的训练速度和效率,从而加快了人工智能的应用进程。同时,多GPU编程技术也在不断发展,大大提高人工智能模型的计算能力,更好地满足实际应用的需求。 本文将分析AIGC的最新进展,深入探讨以上话题,以及中国算力产业的瓶颈和趋势。
|
缓存 并行计算 算法
上帝视角看GPU(5):图形流水线里的不可编程单元
上帝视角看GPU(5):图形流水线里的不可编程单元
799 0
|
并行计算 API C++
GPU 硬件与 CUDA 程序开发工具
GPU 硬件与 CUDA 程序开发工具
480 0