今天刷知乎看到个挺有意思的问题:「如何优雅地利用c++编程从1乘到20?」
我想这有啥难的,还能写出花来不成?结果看到高赞回答,感觉自己的智商有点不够用了。
随便来看一个高赞回答是怎么写的:
这个其实还算比较简单的,没啥难度,还有更晦涩的:
这个乍一看根本看不懂在写啥,当然平时也很少会写这种晦涩的代码。
CUDA花式整活!
今天我就教大家用CUDA来计算一下20的阶乘,就当作是CUDA的一个入门例子。
先来看看我的回答:https://www.zhihu.com/question/365763395/answer/2070162652
我提供了两种CUDA的实现方法。
方法1
#include <iostream> typedef unsigned long long int ull; const int N = 20; __device__ ull atomicMul(ull* address, ull val) { ull *address_as_ull = (ull *)address; ull old = *address_as_ull, assumed; do { assumed = old; old = atomicCAS(address_as_ull, assumed, val * assumed); } while (assumed != old); return old; } __global__ void mul(ull *x) { ull i = threadIdx.x + 1; atomicMul(x, i); } int main() { ull *x; cudaMallocManaged(&x, sizeof(ull)); x[0] = 1; mul<<<1, N>>>(x); cudaDeviceSynchronize(); std::cout << x[0] << std::endl; cudaFree(x); return 0; }
这个方法使用原子操作,一共20个线程,每个线程负责一个乘数,然后一起乘到x[0]
上。
但是由于并行执行,线程之间没有先后顺序,会导致同时乘的时候产生冲突,所以需要使用原子操作。在某一个线程将它的乘数乘到x[0]
上时,不会被其他线程打断。也就是会加锁,同一时刻只会有一个线程在进行乘法操作。
但是由于CUDA只提供了加法和减法的原子操作(atomicAdd
和atomicSub
),所以得自己实现乘法的原子操作atomMul
,利用的是atomicCAS
操作,也就是compare and swap
,如果目标地址元素和待比较的元素相同,就进行元素的交换,否则不进行任何操作。
可以看出,在atomicMul
函数的do while
循环中,先用old
变量保存x[0]
处的当前值,这时候如果有其他线程在x[0]
处写入了新的值,那么接下来该线程的atomicCAS
操作就会判断元素不相同,不进行任何操作,重新执行下一轮循环。
方法2
#include <iostream> typedef unsigned long long int ull; const int N = 20; const int WARP_SIZE = 32; __global__ void mul(ull *x) { int i = threadIdx.x; ull val = x[i]; for (int mask = WARP_SIZE / 2; mask > 0; mask >>= 1) val *= __shfl_xor_sync(WARP_SIZE - 1, val, mask, WARP_SIZE); x[i] = val; } int main() { ull *x; cudaMallocManaged(&x, WARP_SIZE * sizeof(ull)); for (int i = 0; i < WARP_SIZE; ++i) x[i] = i < N ? i + 1 : 1; mul<<<1, WARP_SIZE>>>(x); cudaDeviceSynchronize(); std::cout << x[0] << std::endl; cudaFree(x); return 0; }
这种方法使用线程束原语__shfl_xor_sync
,只要线程在同一个线程束中(32个线程),就可以获取其他线程的值,异或运算后写入指定地址。详细原理这里就不解释了,可以简单理解为:
- 一共进行5轮操作。
- 第一轮操作之后,下标为0-15的位置分别保存着下标0+1、2+3、一直到30+31的结果。
- 第二轮操作之后,下标为0-7的位置分别保存着下标0+1+2+3、4+5+6+7、一直到28+29+30+31的结果。
- 最后一轮之后,下标为0的位置保存着所有32个元素之和。
所以只需要在开始时,分配一个大小为32的数组,前20个元素分别保存1-20,后面12个元素是为了满足线程束大小32的条件,赋值为1就行了。
方法2改进
方法2需要额外开辟大小为32的数组,空间存在浪费,并且数组赋值也需要时间。
感谢@NekoDaemon老哥提供的优化建议,只需要在计算的时候根据线程号计算对应乘积元素就行,但是线程数仍然需要分配32个。
#include <iostream> typedef unsigned long long int ull; const int N = 20; const int WARP_SIZE = 32; __global__ void mul(ull *x) { int i = threadIdx.x; ull val = i < N ? i + 1 : 1; for (int mask = WARP_SIZE / 2; mask > 0; mask >>= 1) val *= __shfl_xor_sync(WARP_SIZE - 1, val, mask, WARP_SIZE); if (!i) x[i] = val; } int main() { ull *x; cudaMallocManaged(&x, sizeof(ull)); mul<<<1, WARP_SIZE>>>(x); cudaDeviceSynchronize(); std::cout << x[0] << std::endl; cudaFree(x); return 0; }
执行结果
代码保存为run.cu
,然后执行nvcc run.cu -o run
,最后执行./run
,就会出来结果2432902008176640000。
今天没有讲解CUDA编程的基础概念,适合有一定基础的同学阅读,如果有对CUDA感兴趣的同学,可以在评论区留言,下次专门写一个CUDA入门系列教程。