《CUDA C编程权威指南》——导读

简介:


image

###前  言

欢迎来到用CUDA C进行异构并行编程的奇妙世界!

现代的异构系统正朝一个充满无限计算可能性的未来发展。异构计算正在不断被应用到新的计算领域—从科学到数据库,再到机器学习的方方面面。编程的未来将是异构并行编程的天下!

本书将引领你通过使用CUDA平台、CUDA工具包和CUDA C语言快速上手GPU(图形处理单元)计算。本书中设置的范例与练习也将带你快速了解CUDA的专业知识,助你早日达到专业水平!

目  录

[第1章 基于CUDA的异构并行计算
1.1 并行计算](https://yq.aliyun.com/articles/118145/)
1.1.1 串行编程和并行编程
1.1.2 并行性
1.1.3 计算机架构
1.2 异构计算
1.2.1 异构架构
1.2.2 异构计算范例
1.2.3 CUDA:一种异构计算平台
1.3 用GPU输出Hello World
1.4 使用CUDA C编程难吗
1.5 总结
1.6 习题
[第2章 CUDA编程模型
2.1 CUDA编程模型概述](https://yq.aliyun.com/articles/118205/)
2.1.1 CUDA编程结构
2.1.2 内存管理
2.1.3 线程管理
2.1.4 启动一个CUDA核函数
2.1.5 编写核函数
2.1.6 验证核函数
2.1.7 处理错误
2.1.8 编译和执行
2.2 给核函数计时
2.2.1 用CPU计时器计时
2.2.2 用nvprof工具计时
2.3 组织并行线程
2.3.1 使用块和线程建立矩阵索引
2.3.2 使用二维网格和二维块对矩阵求和
2.3.3 使用一维网格和一维块对矩阵求和
2.3.4 使用二维网格和一维块对矩阵求和
2.4 设备管理
2.4.1 使用运行时API查询GPU信息
2.4.2 确定最优GPU
2.4.3 使用nvidia-smi查询GPU信息
2.4.4 在运行时设置设备
2.5 总结
2.6 习题
[第3章 CUDA执行模型
3.1 CUDA执行模型概述](https://yq.aliyun.com/articles/118270/)
3.1.1 GPU架构概述
3.1.2 Fermi架构
3.1.3 Kepler架构
3.1.4 配置文件驱动优化
3.2 理解线程束执行的本质
3.2.1 线程束和线程块
3.2.2 线程束分化
3.2.3 资源分配
3.2.4 延迟隐藏
3.2.5 占用率
3.2.6 同步
3.2.7 可扩展性
3.3 并行性的表现
3.3.1 用nvprof检测活跃的线程束
3.3.2 用nvprof检测内存操作
3.3.3 增大并行性
3.4 避免分支分化
3.4.1 并行归约问题
3.4.2 并行归约中的分化
3.4.3 改善并行归约的分化
3.4.4 交错配对的归约
3.5 展开循环
3.5.1 展开的归约
3.5.2 展开线程的归约
3.5.3 完全展开的归约
3.5.4 模板函数的归约
3.6 动态并行
3.6.1 嵌套执行
3.6.2 在GPU上嵌套Hello World
3.6.3 嵌套归约
3.7 总结
3.8 习题

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章

相关实验场景

更多
下一篇
无影云桌面