深度学习模型部署(十二)CUDA编程-绪

news2024/11/15 13:21:50

请添加图片描述

CUDA 运行时 API 与 CUDA 驱动 API 速度没有差别,实际中使用运行时 API 较多,运行时 API 是在驱动 API 上的一层封装。​

CUDA 是什么?​

CUDA(Compute Unified Device Architecture) 是 nvidia 推出的一个通用并行技术架构,用它来进行 GPU 编程。CUDA 本身并不是一门语言,而是一个 GPU 编程模型,是对 C++,Python 这种常见 CPU 编程语言的一个补充。​

为什么用 GPU 编程要用 CUDA?​

因为 GPU 的控制硬件少,所以编程模型要求非常严格,最早期 GPU 的唯一交互方式是通过 OpenGL 和 DirectX 这些图形 API,​

基本上所有的编程语言都是在 CPU 上运行的,所以催生了 CUDA 编程框架,为了更方便的与 GPU 交互和调用 GPU 的资源.​

请添加图片描述

CUDA编译运行流程

1、CUDA代码文件后缀.cu,使用nvcc进行编译
nvcc是nvidia基于LLVM开发的专门用于编译cuda代码的编译器,cuda代码有一套完整的工具链,称为cuda-toolkit,包括nvcc编译器,cuda-gdb调试工具等。
2、CUDA中的代码执行设备有两种,一种是device,一种是host,CPU被称为host,普通代码都是在host上执行,GPU被称为device,在device上执行的代码需要添加__global__ 或者__device__前缀
具体CUDA不同前缀意义见
3、CUDA中device使用的是显存,所以在device上执行的函数只能传入device上定义的变量,具体方法为定义好变量,然后使用cudaMalloc函数在显存中给变量分配空间,再使用cudaMemcpy将变量拷贝到显存中(cudaMemcpy是内存拷贝函数,可以根据给的参数将device中的memory拷贝到host中,也可以反过来拷贝),使用完后要使用cudaFree进行释放
4、通过__global__前缀定义的函数执行时需要设置执行的block数量和线程数
5、在host函数中进行完cuda调用后,需要使用cudaDeviceSynchronize()函数,因为启动内核是一个异步操作,只要发布了内核启动命令,不等内核执行完成,控制权就会立刻返回给调用内核的CPU线程。

CUDA kernel和线程管理

在CUDA中,函数称为kernel,每个kernel都有一个前缀,不同的前缀代表了kernel不同的运行要求。

#include<stdio.h>
//在GPU上执行的kernel中不允许使用C++的标准库 iostream
// warning #20096-D: address of a host variable "std::cout" cannot be directly taken in a device function
__global__ void hello_from_gpu()
{
    printf("hello world from gpu\n");
    //compute capacity 2.0以后才支持printf,也就是GeForce 830M以后的GPU
}

int main(void)
{
    hello_from_gpu<<<4,4>>>();
    cudaDeviceSynchronize();

    return 0;
}

<<<>>>是cuda调用kernel时的语法,<<<numBlocks, threadsPerBlock>>>意思为调用numBlocks个block,每个block中threadsPerBlock个线程。

函数前缀

  1. device
    使用 device 限定符声明的函数具有以下特征:
  • 在设备上执行;
  • 仅可通过设备调用。
  1. global
    使用 global 限定符可将函数声明为内核。此类函数:
  • 在设备上执行;
  • 仅可通过主机调用。
  1. host
    使用 host 限定符声明的函数具有以下特征:
  • 在主机上执行;
  • 仅可通过主机调用。
    仅使用 host 限定符声明函数等同于不使用限定符声明函数,这两种情况下,函数都将仅为主机进行编译。
    函数前缀的一些限制
    deviceglobal 函数不支持递归。
    deviceglobal 函数的函数体内无法声明静态变量。
    deviceglobal 函数不得有数量可变的参数。
    device 函数的地址无法获取,但支持 global 函数的函数指针。
    globalhost 限定符无法一起使用。
    global 函数的返回类型必须为空。
    global 函数的任何调用都必须按规定指定其执行配置。
    global 函数的调用是异步的,也就是说它会在设备执行完成之前返回。
    global 函数参数将同时通过共享存储器传递给设备,且限制为 256 字节。
    线程管理
    CUDA有一套专门用于线程管理的机制,一个kernel调用时的配置<<<numBlocks, threadsPerBlock>>>中的numBlocks和threadPerBlock可以是int变量,也可以是线程管理的结构体,结构体更为常见。
#include<stdio.h>
#include<cuda_runtime.h>

__global__ void build_in_variables(void)
{
    // build-in variables
    // blockDim:等同于threadsPerBlock
    // gridDim:等同于numBlocks
    // blockIdx:一个block在grid中的id
    // threadIdx:一个thread在block中的id

    const int blockId = blockIdx.x + blockIdx.y * gridDim.x;
    const int threadId = threadIdx.x + blockDim.x * threadIdx.y;

    printf("blockIdx=(%d,%d) \n",blockIdx.x,blockIdx.y);
    printf("threadIdx=(%d,%d) \n",threadIdx.x,threadIdx.y);
    printf("blockid=:%d,threadId=%d \n",blockId,threadId);

}

int main(void)
{
    printf("*****device message*******\n");

    int dev=0;
    cudaDeviceProp deviceProp;
    cudaGetDeviceProperties(&deviceProp,dev);
    printf("Using Device %d:%s\n",dev,deviceProp.name);
    printf("Device %d has compute capability %d.%d.\n",dev,deviceProp.major,deviceProp.minor);
    printf("Device %d has %d multi-processors.\n",dev,deviceProp.multiProcessorCount);
    printf("Device %d has %zu byte total global memory.\n",dev,deviceProp.totalGlobalMem);
    printf("Device %d has %zu byte total constant memory.\n",dev,deviceProp.totalConstMem);
    printf("Device %d has %zu byte shared memory per block.\n",dev,deviceProp.sharedMemPerBlock);
    printf("Device %d has %d total registers per block.\n",dev,deviceProp.regsPerBlock);
    printf("Device %d has %d max threads per block.\n",dev,deviceProp.maxThreadsPerBlock);
    printf("Device %d has %d max threads dimensions.\n",dev,deviceProp.maxThreadsDim[0]);
    printf("Device %d has %u max grid size.\n",dev,deviceProp.maxGridSize[0]);
    printf("Device %d has %d warp size.\n",dev,deviceProp.warpSize);
    printf("Device %d has %d clock rate.\n",dev,deviceProp.clockRate);
    printf("Device %d has %d max threads per multi-processor.\n",dev,deviceProp.maxThreadsPerMultiProcessor);
    

    dim3 numBlocks(2,2);
    // 2*2个block per grid
    // dim3,是一个包含xyz三个无符号整型数的结构体,默认值为1
    //三个维度,x变化最快,然后是y,最后是z
    dim3 threadsPerBlock(2,2);
    // 2*2个thread per block
    build_in_variables<<<numBlocks, threadsPerBlock>>>();
    cudaDeviceReset();
    return 0;
}

在这里插入图片描述

在计算能力9.0以前的架构,thread的Hierarchy是二维的,只有两个层次,一个grid,一个block。在9.0以后的架构,thread的Hierarchy是三维的,新引入了一个可选层次:Cluster集群,每个Cluster中的block可以确保是在同一个GPC(GPU Processing Cluster)GPU集群中运行的。

#include<stdio.h>

__global__ void __cluster_dims__(2,1,1) hello_from_gpu()
{
    printf("Hello World from GPU!\n");
}

int main()
{
    hello_from_gpu<<<1,1>>>();
    cudaDeviceSynchronize();
    return 0;
}

内存管理

内存分为device memory和host memory,二者之间通过cudaMemcpy来进行管理。
[图片]

GPU每个线程有自己单独的寄存器和内存,同一个block中有所有thread都能访问的shared memory,
在有cluster的架构中,同一个cluster中的block的shared memory组成了distributed shared memory,可以相互访问。除此之外还有专门的只读内存,用于存放texture(纹理)

#include <stdio.h>

__global__ void sharedMemoryExample(int* input)
{
    // Define shared memory array
    __shared__ int sharedArray[256];

    // Get the thread index
    int tid = threadIdx.x;

    // Load data from global memory to shared memory
    sharedArray[tid] = input[tid];

    // Synchronize threads to ensure all data is loaded
    __syncthreads();

    // Perform some computation using shared memory data
    sharedArray[tid] = sharedArray[tid] * 2;

    // Synchronize threads again before writing back to global memory
    __syncthreads();

    // Write the result back to global memory
    input[tid] = sharedArray[tid];
}

int main()
{
    // Define input data
    int input[256];

    // Initialize input data
    for (int i = 0; i < 256; i++)
    {
        input[i] = i;
    }

    // Allocate memory on the GPU
    int* d_input;
    cudaMalloc((void**)&d_input, sizeof(int) * 256);

    // Copy input data from host to device
    cudaMemcpy(d_input, input, sizeof(int) * 256, cudaMemcpyHostToDevice);

    // Launch the kernel
    sharedMemoryExample<<<1, 256>>>(d_input);

    // Copy the result back from device to host
    cudaMemcpy(input, d_input, sizeof(int) * 256, cudaMemcpyDeviceToHost);

    // Print the result
    for (int i = 0; i < 256; i++)
    {
        printf("%d ", input[i]);
    }

    // Free memory on the GPU
    cudaFree(d_input);

    return 0;
}

变量前缀:

1.device
device 限定符声明位于设备上的变量。
在接下来的三节中介绍的其他类型限定符中,最多只能有一种可与 device 限定符一起使用,以更具体地指定变量属于哪个存储器空间。如果未出现其他任何限定符,则变量具有以下特征:

  • 位于全局存储器空间中;
  • 与应用程序具有相同的生命周期;
    可通过网格内的所有线程访问,也可通过运行时库从主机访问。
    2.constant
    constant 限定符可选择与 device 限定符一起使用,所声明的变量具有以下特征:
  • 位于固定存储器空间中;
  • 与应用程序具有相同的生命周期;
    可通过网格内的所有线程访问,也可通过运行时库从主机访问。
    3.shared
    shared 限定符可选择与 device 限定符一起使用,所声明的变量具有以下特征:
  • 位于线程块的共享存储器空间中;
  • 与块具有相同的生命周期;
  • 尽可通过块内的所有线程访问。
    只有在 syncthreads()(参见第 4.4.2 节)的执行写入之后,才能保证共享变量对其他线程可见。除非变量被声明为瞬时变量,否则只要之前的语句完成,编译器即可随意优化共享存储器的读写操作。
    限制:
    不允许为在主机上执行的函数内的 struct 和 union 成员、形参和局部变量使用这些限定符。
    shared 和 constant 变量具有隐含的静态存储。
    devicesharedconstant 变量无法使用 extern 关键字定义为外部变量。
    deviceconstant 变量仅允许在文件作用域内使用。
    不可为设备或从设备指派 constant 变量,仅可通过主机运行时函数从主机指派(参见第 4.5.2.3 节和第 4.5.3.6 节)。
    shared 变量的声明中不可包含初始化。
    访问速度顺序为:register>shared>constant>local>device
    下面是具体的一个应用:
    将共享存储器中的变量声明为外部数组时,例如:
extern __shared__ float shared[];

数组的大小将在启动时确定(参见第 4.2.3 节)。所有变量均以这种形式声明,在存储器中的同一地址开始,因此数组中的变量布局必须通过偏移显式管理。
例如:

// 如果一名用户希望在动态分配的共享存储器内获得与以下代码对应的内容:
// short array0[128];
// float array1[64];
// int array2[256];
// 则应通过以下方法声明和初始化数组:
extern __shared__ char array[];
__device__ void func() // device or global function
{
    short* array0 = (short*)array;
     float* array1 = (float*)&array0[128];
     int* array2 = (int*)&array1[64];
}

在设备代码中声明、不带任何限定符的自动变量通常位于寄存器中。但在某些情况下,编译器可能选择将其置于本地存储器中。
只要编译器能够确定在设备上执行的代码中的指针指向的是共享存储器空间还是全局存储器空间,此类指针即受支持,否则将仅限于指向在全局存储器空间中分配或声明的存储器。
通过获取 devicesharedconstant 变量的地址而获得的地址仅可在设备代码中使用。通过 cudaGetSymbolAddress() 获取的 deviceconstant 变量的地址仅可在主机代码中使用。

对 global 函数进行配置

global 函数的任何调用都必须指定该调用的执行配置。
执行配置定义将用于在该设备上执行函数的网格和块的维度,以及相关的流。可通过在函数名称和括号参数列表之间插入 <<<Dg, Db, Ns, s>>> 形式的表达式来指定,其中:
Dg 的类型为 dim3,指定网格的维度和大小,Dg.x * Dg.y 等于所启动的块数量,Dg.z 无用;
Db 的类型为 dim3,指定各块的维度和大小,Db.x * Db.y * Db.z 等于各块的线程数量;
Ns 的类型为 size_t,指定各块为此调用动态分配的共享存储器(除静态分配的存储器之外),这些动态分配的存储器可供声明为外部数组的其他任何变量使用,Ns 是一个可选参数,默认值为 0;
S 的类型为 cudaStream_t,指定相关流;S 是一个可选参数,默认值为 0。
举例来说,

//一个函数的声明如下:
__global__ void Func(float* parameter);
//必须通过如下方法来调用此函数:
Func<<<Dg, Db, Ns>>>(parameter);

执行配置的参数将在实际函数参数之前被评估,与函数参数相同,通过共享存储器同时传递给设备。

如果 Dg 或 Db 大于设备允许的最大大小,或 Ns 大于设备上可用的共享存储器最大值,或者小于静态分配、函数参数和执行配置所需的共享存储器数量,则函数将失败。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1546746.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【LLM】大模型推理加速 KV-Cache

目录 模型推理过程KV Cache原理KV Cache的存储 模型推理过程 在了解KVCache之前&#xff0c;我们需要知道Transformer类大模型的推理过程。 对于LLM进行一次前向传播也就是生成一个token的过程可以被分解成以下步骤&#xff1a; 文本 T i n p u t T_{input} Tinput​经过Toke…

数据结构与算法分析引论1

1.解决问题的算法有很多&#xff0c;但是在输入不同的情况下&#xff0c;不同算法之间的差异也很大&#xff0c;我们总是追求一个更快、更有效的方法。比如说普通的依次查找和二分查找&#xff0c;两者的差异就很大。我们使用大O表示法来表示算法的速度。依次查找就是O(n)&…

MATLAB 自定义生成平面点云(可指定方向,添加噪声)(48)

MATLAB 自定义生成平面点云(可指定方向,添加噪声)(48) 一、算法介绍二、算法步骤三、算法实现1.代码2.效果一、算法介绍 通过这里的平面生成方法,可以生成模拟平面的点云数据,并可以人为设置平面方向,平面大小,并添加噪声来探索不同类型的平面数据。这种方法可以用于…

UDS诊断中的NRC

我总结了一张表格&#xff1a;详细解释了NRC的分布情况和NRC的触发条件 1&#xff1a;基本概念 NRC 全称Negative Response Code(否定响应代码)&#xff0c;是指示uds诊断中的&#xff0c;指示否定响应的原因 例如&#xff1a;0x22 服务 request 报文 0x618 03 22 F1 34 0…

电脑物理磁盘空间不足?试试这5种清理和优化方法!

随着我们使用电脑的时间越来越长&#xff0c;物理磁盘空间可能会逐渐变得捉襟见肘。当你的电脑提示磁盘空间不足时&#xff0c;不要慌张&#xff0c;这里有五种方法可以帮助你清理和优化电脑&#xff0c;释放宝贵的存储空间。 1. 卸载不常用的程序和游戏 许多用户在安装软件和…

机器学习基础——模型评估与选择(部分)

目录 一、前言&#xff1a;误差与拟合 &#xff08;一&#xff09;经验误差 &#xff08;二&#xff09;过拟合、欠拟合 二、评估方法 &#xff08;一&#xff09;评估总体的思路 &#xff08;二&#xff09;如何划分训练集和测试集 1.留出法 2.k折交叉验证 3.自助法 …

程序员35岁真的就是危机吗?

前言 35岁被认为是程序员职业生涯的分水岭&#xff0c;许多程序员开始担忧自己的职业发展是否会受到年龄的限制。有人担心随着年龄的增长&#xff0c;技术更新换代的速度会使得资深程序员难以跟上&#xff1b;而另一些人则认为&#xff0c;丰富的经验和深厚的技术积累是年轻程…

knife4j/swagger救援第一现场

1、前方来报&#xff0c;测试环境springboot项目无法启动&#xff0c;现场如下&#xff1a; Error starting ApplicationContext. To display the auto-configuration report re-run your application with debug enabled. [ERROR] 2024-03-20 12:54:42,718 --main-- [org.spr…

一键跳过开屏广告,这下舒服了

现在的app开屏广告越来越过分了&#xff0c;不小心摇一摇翻转就点开广告了。 今天分享个强大的自动跳过广告https://github.com/gkd-kit/gkd&#xff0c;李跳跳替代品&#xff0c;下载地址在公众号后台对话框回复 广告 玩转互联网达人 苏生不惑备用号&#xff0c;分享各种黑科…

【Godot4自学手册】第二十九节使用Shader来实现敌人受伤的闪白效果

在Godot 4中&#xff0c;Shader是用来为材质提供自定义渲染效果的程序。材质可以应用于MeshInstance、CanvasItem和ParticleEmitter等节点。Shader可以影响顶点的变换、片段&#xff08;像素&#xff09;的颜色&#xff0c;以及光照与物体的交互。 在Godot中&#xff0c;Shader…

HTML基础:8个常见表单元素的详解

你好&#xff0c;我是云桃桃。 一个希望帮助更多朋友快速入门 WEB 前端程序媛。 后台回复“前端工具”可免费获取开发工具&#xff0c;持续更新。 今天来说说 HTML 表单。它是用于收集用户输入信息的元素集合。例如文本框、单选按钮、复选框、下拉列表等。 用户经常填写的表…

海外媒体软文发稿:谷歌关键词优化细分人群成功案例,突破海外市场!

海外媒体软文发稿&#xff1a;谷歌关键词优化细分人群成功案例&#xff0c;突破海外市场&#xff01; 引言 在全球化的时代&#xff0c;海外市场对于企业的发展至关重要。而在海外市场中&#xff0c;互联网媒体的作用不可忽视。本篇教程将介绍如何通过谷歌关键词优化细分人群…

西井科技与安通控股签署战略合作协议 共创大物流全新生态

2024年3月21日&#xff0c;西井科技与安通控股在“上海硅巷”新象限空间正式签署战略合作框架协议。双方基于此前在集装箱物流的成功实践与资源优势&#xff0c;积极拓展在AI数字化产品、新能源自动驾驶解决方案和多场景应用&#xff0c;以及绿色物流链等领域的深度探索、强强联…

2024.3.23

1、使用手动连接&#xff0c;将登录框中的取消按钮使用qt4版本的连接到自定义的槽函数中&#xff0c;在自定义的槽函数中调用关闭函数将登录按钮使用qt5版本的连接到自定义的槽函数中&#xff0c;在槽函数中判断ui界面上输入的账号是否为"admin"&#xff0c;密码是否…

鸿蒙应用开发-录音并使用WebSocket实现实时语音识别

功能介绍&#xff1a; 录音并实时获取RAW的音频格式数据&#xff0c;利用WebSocket上传数据到服务器&#xff0c;并实时获取语音识别结果&#xff0c;参考文档使用AudioCapturer开发音频录制功能(ArkTS)&#xff0c;更详细接口信息请查看接口文档&#xff1a;AudioCapturer8和…

如何推进制造业数字化转型?《制造业数字化转型白皮书》分享给你

分享一份《制造业数字化转型白皮书》给你&#xff0c;希望对你有所帮助&#xff01; 内容较长&#xff0c;防止后续找不到&#xff0c;建议先收藏&#xff01; 变局&#xff1a;数字经济浪潮“不期而至” 中国制造何去何从&#xff1f; VUCA&#xff08;不稳定 Volatile、不确…

超详细SpringMVC源码剖析

整体流程图 1.自定义视图(63~66) 视图解析过程 1.先到DispatcherServlet中央控制器, 根据视图解析的 优先级 执行对应的 视图解析器 Nullable protected View resolveViewName(String viewName, Nullable Map<String, Object> model,Locale locale, HttpServletReque…

美团面试一面凉经

1.自我介绍 2.科研项目提问 没咋准备&#xff0c;说的有点没逻辑 3.问论坛项目 为什么用Redis实现登录&#xff1f;能不能用其他方式实现&#xff1f; 1、Redis 具备高性能 假如用户第一次访问 MySQL 中的某些数据。这个过程会比较慢&#xff0c;因为是从硬盘上读取的。将…

Springboot+vue的企业质量管理系统(有报告)。Javaee项目,springboot vue前后端分离项目。

演示视频&#xff1a; Springbootvue的企业质量管理系统&#xff08;有报告&#xff09;。Javaee项目&#xff0c;springboot vue前后端分离项目。 项目介绍&#xff1a; 采用M&#xff08;model&#xff09;V&#xff08;view&#xff09;C&#xff08;controller&#xff09…

堆排序(六大排序)

前面博客已经分享过堆的知识了&#xff0c;今天我们来分享堆排序。 堆排序 堆排序(Heapsort)是指利用堆积树&#xff08;堆&#xff09;这种数据结构所设计的一种排序算法&#xff0c;它是选择排序的一种。它是通过堆来进行选择数据。 ★★★需要注意的是排升序要建大堆&#…