1. 引言
前序博客:
- CUDA简介——基本概念
CPU是用于控制的。即,host控制整个程序流程:
- 1)程序以Host代码main函数开始,然后顺序执行。
- Host代码是顺序执行的,并执行在CPU之上。
- Host代码会负责Launch kernel。
- 2)对于想转移给CPU执行的代码,称为Device代码,通过Launch kernel来实现:
- Device代码是并行执行的,并执行在GPU之上。
- kernel做为a grid运行在Device端。
- Device端程序会立即返回给Host。即,除非明确要求,Host并不会等待Device执行完成后才再执行后续Host代码。【因此,如需收集特定kernel launch Device程序的执行结果,需在host代码中创建明确的barrier,让main c函数等待kernel执行完成再继续执行后续代码。】
launch kernel时的语法规则为:
- 与常规C函数调用类似
- 需指定配置参数grid_size和block_size,二者均为dim3 CUDA数据结构,默认均为(1,1,1)。
launch kernel示例如:
从Host角度来看,实际更详细的程序流为:
- 1)程序以Host代码main函数开始,然后顺序执行。
- Host代码是顺序执行的,并执行在CPU之上。
- 为kernel launch做准备【Host和Device内存是独立的】:Host与Device之间的数据拷贝至关重要,且是程序性能主要限制因素。
- 分配Device内存:
cudaMalloc(...)
。 - 将Host上数据拷贝到Device上:
cudaMemcpy(...)
,即将数据由CPU拷贝到GPU之上。
- 分配Device内存:
- Host代码会负责Launch kernel:在GPU上并行执行Threads。
- 为获取kernel执行结果,需将Device数据拷贝到Host上:
cudaMemcpy(...)
。
其中,Device内存管理:
-
与C中内存管理类似:C中内存分配用
malloc(...)
,内存释放用free(...)
。
-
CUDA Device内存管理为:
- 内存分配用
cudaMalloc(LOCATION, SIZE)
:- LOCATION:Device上分配内存的内存位置,为某GPU内存地址。
- size:为分配的字节数。
- 内存释放用
cudaFree()
。
- 内存分配用
Device和Host之间数据拷贝:
- 使用
cudaMemcpy(dst, src, numBytes, direction)
:- dst:拷贝目标地址
- src:拷贝源地址
- numBytes:拷贝字节数。numBytes = N*sizeof(type)
- direction:拷贝方向。
- cudaMemcpyHostToDevice:由Host拷贝数据到Device。
- cudaMemcpyDeviceToHost:由Device拷贝数据到Host。
总体的完整流程为:
- 1)以main()函数起始
- 2)定义变量:通常以
h_
来表示Host端变量,以d_
来表示Device端变量。若在Host端引用了device变量,则程序将崩溃,反之亦然。
- 3)分配device内存:使用
cudaMalloc(...)
。
- 4)将host数据拷贝到device:使用
cudaMemcpy(...)
。【此时假设h_c
为已做数据初始化】
- 5)设置kernel launch配置参数:grid_size和block_size。【下图中均为默认值(1,1,1)】
- 6)Launch kernel:
- 7)将device执行结果拷贝回host:使用
cudaMemcpy(...)
。
- 8)释放device和host内存:分别使用
cudaFree(...)
和free(...)
。
- 9)结束main()函数执行。
参考资料
[1] 2019年5月视频 Intro to CUDA (part 2): Programming Model