PyTorch~cpp_extension

news2024/11/12 22:54:21

还是pytorch哈~~  结合 Python 与 C++ 各自的优点,在 PyTorch 中加入 C++ / CUDA的扩展,详细解释C++/CUDA 算子实现和调用全流程

  • 代码来源:MMCV, PyTorch。

    https://github.com/open-mmlab/mmcv

    https://github.com/pytorch/pytorch

  • 注:C++ / CUDA 扩展一般有”预编译“ 与 ”实时编译“ (just-in-time, JIT)模式。本期主要介绍”预编译“模式。

当你想为自己的代码添加扩展进行加速时,我们可以先来看看经典的例子中是怎么处理的。对检测或分割稍有了解的同学应该知道,nms 的计算是最常见的用到了 C++ / CUDA 扩展的算子。

from mmcv import _ext as ext_modulefrom torch.autograd import Function
def nms(boxes, scores, iou_threshold, offset=0):    inds = NMSop.apply(boxes, scores, iou_threshold, offset)    dets = torch.cat((boxes[inds], scores[inds].reshape(-1, 1)), dim=1)    return dets, inds
class NMSop(torch.autograd.Function):    @staticmethod    def forward(ctx, bboxes, scores, iou_threshold, offset):        inds = ext_module.nms(            bboxes, scores, iou_threshold=float(iou_threshold), offset=offset)        return inds
    @staticmethod    def symbolic(g, bboxes, scores, iou_threshold, offset):        pass  # onnx 转换相关

Function (见往期内容https://zhuanlan.zhihu.com/p/321449610)。NMSopforward函数内核调用的是mmcv._ext.nms模块,但实际上我们在 MMCV 源码(https://github.com/open-mmlab/mmcv)中是看不到 _ext module 的。只有在编译好的mmcv 库 (MMCV_WITH_OPS=True python setup.py build_ext \--inplace) 会出现 mmcv/_ext.cpython-xxx.so 文件,只有这时在 Python 中运行 import mmcv._ext 才会成功。看来 C++ 扩展是通过 setup.py 来执行编译的。

setup.py -- 扩展的编译文件

基于预编译的扩展由于需要编译,而setup.py文件正是基于setuptools的编译脚本。因此一个 Python package 的扩展是可以在setup.py文件中找到其蛛丝马迹的。这里我们截取一段mmcv的 setup.py 文件(https://github.com/open-mmlab/mmcv/blob/master/setup.py),

setup(    name='mmcv',    install_requires=install_requires,    # 需要编译的c++/cuda扩展    ext_modules=get_extensions(),    # cmdclass 为python setup.py --build_ext命令指定行为    cmdclass={'build_ext':  torch.utils.cpp_extension.BuildExtension})

这里可以看到 setup函数中一个主要的参数ext_modules,该参数需要指定为一个Extension列表,代表实际需要编译的扩展。目前该参数由get_extensions函数获得。其中 get_extensions函数定义如下(节选)​​​​​​​

def get_extensions():    extensions = []    ext_name = 'mmcv._ext'    from torch.utils.cpp_extension import (CUDAExtension, CppExtension)
    if torch.cuda.is_available():        # CUDA编译扩展        extra_compile_args['nvcc'] = [cuda_args] if cuda_args else []        # 编译./mmcv/ops/csrc/pytorch文件夹中的所有文件        op_files = glob.glob('./mmcv/ops/csrc/pytorch/*')        extension = CUDAExtension    else:        # C++ 编译扩展        op_files = glob.glob('./mmcv/ops/csrc/pytorch/*.cpp')        extension = CppExtension     include_path = os.path.abspath('./mmcv/ops/csrc')     ext_ops = extension(         name=ext_name,  # 扩展模块名         sources=op_files,  # 扩展文件         include_dirs=[include_path],  # 头文件地址         define_macros=define_macros,  # 预定义宏         extra_compile_args=extra_compile_args)  # 其他编译选项      extensions.append(ext_ops)    return extensions

在上述代码中我们终于看到了mmcv._ext,该名字正是新定义的扩展的名字。由此我们便知道上文中提到的mmcv._ext模块实际上是在 setup.py 文件中指定其模块名字的。另外我们发现用于生成扩展的函数会随系统环境不同而有所区别,当系统中没有 CUDA 时会调用 CppExtension,且只编译所有 .cpp文件,反之则调用 CUDAExtension。其实 CppExtension 与 CUDAExtension 都是基于setuptools.Extension的扩展,这两个函数都额外将系统目录中的 torch/include 加入到 C++ 编译时的include_dirs中,另外 CUDAExtension 会额外将CUDA相关的库以及头文件加到默认编译搜索路径中。由 setup.py 文件我们还了解到送给编译的其他信息,如扩展文件的源文件地址,在 MMCV中则是存放于 ./mmcv/ops/csrc/pytorch/中。其他信息如 include_dirsdefine_macrosextra_compile_args 则会在 torch/utils/cpp_extension.py:BuildExtension一并形成最终的 gcc /nvcc 的命令。​​​​​​​

class BuildExtension(build_ext, object):    # 只显示核心代码    def build_extensions(self):        # 检查二进制接口兼容性        self._check_abi()
        # 注册 cuda 代码 (.cu, .cuh)        self.compiler.src_extensions += ['.cu', '.cuh']        def unix_wrap_compile(obj, src, ext, cc_args, extra_postargs, pp_opts):            try:                original_compiler = self.compiler.compiler_so                if _is_cuda_file(src):                    # 对 cuda 文件调用 nvcc 命令                    nvcc = _join_cuda_home('bin', 'nvcc')                    self.compiler.set_executable('compiler_so', nvcc)                    if isinstance(cflags, dict):                        cflags = cflags['nvcc']                    cflags = COMMON_NVCC_FLAGS + ['--compiler-options',                                                  "'-fPIC'"] + cflags + _get_cuda_arch_flags(cflags)                elif isinstance(cflags, dict):                    # 默认 c++ 程序的 flags                    cflags = cflags['cxx']                # 强制性使用 --std=c++11                if not any(flag.startswith('-std=') for flag in cflags):                    cflags.append('-std=c++11')                # c++ / cuda 程序编译入口                original_compile(obj, src, ext, cc_args, cflags, pp_opts)            finally:                # 将之前覆盖的默认编译器还原                self.compiler.set_executable('compiler_so', original_compiler)

以上过程了解清楚之后我们运行 MMCV_WITH_OPS=True python setup.py build_ext \--inplace 指令。​​​​​​​

/usr/local/cuda-10.0/bin/nvcc -DMMCV_WITH_CUDA -I/home-to-/mmcv/mmcv/ops/csrc -I/home-to-//torch/include -I/home-to/torch/include/torch/csrc/api/include -I/home-to/torch/include/TH -I/home-to/torch/include/THC -I/usr/local/cuda-10.0/include -I/home-to/python3.7m -c ./mmcv/ops/csrc/pytorch/nms_cuda.cu -o build/temp.linux-x86_64-3.7/./mmcv/ops/csrc/pytorch/nms_cuda.o -D__CUDA_NO_HALF_OPERATORS__ -D__CUDA_NO_HALF_CONVERSIONS__ -D__CUDA_NO_HALF2_OPERATORS__ --expt-relaxed-constexpr --compiler-options '-fPIC' -DTORCH_API_INCLUDE_EXTENSION_H -DTORCH_EXTENSION_NAME=_ext -D_GLIBCXX_USE_CXX11_ABI=0 -gencode=arch=compute_61,code=sm_61 -std=c++11
gcc -pthread -B compiler_compat -Wl,--sysroot=/ -Wsign-compare -DNDEBUG -g -fwrapv -O3 -Wall -Wstrict-prototypes -fPIC -DMMCV_WITH_CUDA -I/home-to/mmcv/ops/csrc -I/home-to/torch/include -I/home-to/torch/include/torch/csrc/api/include -I/home-to/torch/include/TH -I/home-to/torch/include/THC -I/usr/local/cuda-10.0/include -I/home-to/python3.7m -c ./mmcv/ops/csrc/pytorch/nms.cpp -o build/temp.linux-x86_64-3.7/./mmcv/ops/csrc/pytorch/nms.o -DTORCH_API_INCLUDE_EXTENSION_H -DTORCH_EXTENSION_NAME=_ext -D_GLIBCXX_USE_CXX11_ABI=0 -std=c++11...

在上述运行结果中我们可以看到

  1. 编译器对 CUDA 文件自动调用 nvcc 而对 .cpp 文件则调用 gcc

  2. 被 CUDAExtension包装过后系统自动加入了 Python,PyTorch, CUDA 等库中的头文件以及库地址,系统架构信息(-gencode)与编译优化信息(-O3 等)

  3. 通过 -DTORCH_EXTENSION_NAME=_ext 将TORCH_EXTENSION_NAME宏赋值为_ext。这看来也绝非是闲来之笔,欲知后事如何,我们看下一节分解

PYBIND11_MODULE -- Python 与 C++ 的桥梁

上文说到通过 setup.py 我们编译了扩展文件。可是目前仍然有个疑问,为什么编译出来的 C++ / CUDA 二进制文件可以在 Python 中直接被调用呢?再次检测编译的所有文件,发现其中有个文件 pybind.cpp (https://github.com/open-mmlab/mmcv/blob/master/mmcv/ops/csrc/pytorch/pybind.cpp)十分可疑,其打开后大致形式如下。​​​​​​​

#include <torch/extension.h>// 函数声明,具体实现在其他文件Tensor nms(Tensor boxes, Tensor scores, float iou_threshold, int offset);
PYBIND11_MODULE(TORCH_EXTENSION_NAME, m) {  m.def("nms", &nms, "nms (CPU/CUDA) ", py::arg("boxes"), py::arg("scores"),        py::arg("iou_threshold"), py::arg("offset"));}

这里PYBIND11_MODULE是一个宏,定义在 pybind11 库中(见pybind11/include/pybind11/pybind11.h)(https://github.com/pybind/pybind11/blob/master/include/pybind11/pybind11.h)。而 pybind11 是一个用来在 C++ 代码中创建 Python的连接的库。找到了源头,我们进一步分析。

这里PYBIND11_MODULE 的作用是为 C++ 代码接入 Python 解释器提供入口。以上述代码为例, TORCH_EXTENSION_NAME 正是在上文 gcc编译过程中出现的宏,对应为extension的 name 变量。因此在这里会被解释成 _ext(注意没有双引号) 。m 则代表 TORCH_EXTENSION_NAME 所对应的模块实例(实际上可以指定为任何名字)。{}中的每个 m.def都定义了一个 _ext 的成员函数,其一般形式为 m.def("函数名",具体 C++ 实现的函数指针, "文档", 参数列表)。通过这种形式,nms也就顺利地成为了mmcv._ext的成员函数,其具体实现为已经定义好的 nms 函数(对这个函数的分析我们会在下节讲到)。在 Python 中也就可以运行from mmcv._ext import nms了。如果对这里的定义仍然不清楚,我们可以把该宏用 C++ 编译器展开一下:​​​​​​​

Tensor nms(Tensor boxes, Tensor scores, float iou_threshold, int offset);static void pybind11_init__ext(pybind11::module &); extern "C" __attribute__ ((visibility("default"))) PyObject *PyInit__ext() {     // 省略部分代码      auto m = pybind11::module("_ext");  // m 变量的初始化是在宏内部    try { pybind11_init__ext(m); return m.ptr(); } } void pybind11_init__ext(pybind11::module &m) {   // 添加成员函数   m.def("nms", &nms, "nms (CPU/CUDA) ", py::arg("boxes"), py::arg("scores"),       py::arg("iou_threshold"), py::arg("offset"));}

其中 PyObject *PyInit_ 定义在 Python.h中,正是 C++ 中声明 Python module 的官方方法(可见官方 Python 文档)。这里 PyInit_后接的_ext其实就是 TORCH_EXTENSION_NAME宏解释得到。意味着新声明了一个 名为_ext 的 Python module。

cpp/cu文件 -- 算子的具体实现

通过对 PYBIND11_MODULE 的分析后,我们了解了 mmcv._ext.nms 具体的实现是一个声明为 Tensor nms(Tensor boxes, Tensor scores, float iou_threshold, int offset); 的函数。该函数定义在 mmcv/ops/csrc/pytorch/nms.cpp 中(https://github.com/open-mmlab/mmcv/blob/master/mmcv/ops/csrc/pytorch/nms.cpp)​​​​​​​

#include <torch/extension.h>using namespace at; // 适当改写Tensor nms_cpu(Tensor boxes, Tensor scores, float iou_threshold, int offset) {  // 仅显示核心代码  for (int64_t _i = 0; _i < nboxes; _i++) {    // 遍历所有检测框,称为主检测框    if (select[_i] == false) continue;    for (int64_t _j = _i + 1; _j < nboxes; _j++) {      // 对每个主检测框,遍历其他检测框,称为次检测框      // 这里只用遍历上三角元素即可,节省计算      if (select[_j] == false) continue;      auto ovr = inter / (iarea + areas[j] - inter);      // 如果次检测框与主检测框 iou 过大,则去除该次检测框      if (ovr >= iou_threshold) select[_j] = false;    }  }  return order_t.masked_select(select_t);}

以上即为 nms_cpu 的核心代码,对该算法想要有进一步了解的同学可以参看源码 。这里出现了两个for 循环,实现上这正是我们希望实现 nms 的 C++ / CUDA 扩展的原因。对于有一定 C++ 基础的同学来说代码应该较好理解 (注意这里 int64_t 可理解为C99规约的为支持不同平台的int64类型的 typedef 定义,可直接理解为 int64),但这里同时也出现了一些新的变量类型,最典型的是 Tensor 数据类型。

其实这里 Tensor 数据类型由 torch/extension.h 支持,来源于 pytorch 中 C++ API 中三大 namespace(attorch 与 c10)中的 at

小知识点:attorch 与 c10这三个命名空间中 at 代表 ATen (A Tensor Library),负责声明和定义Tensor运算相关的逻辑,是pytorch扩展c++接口中最常用到的命名空间,c10 (Caffe Tensor Library)其实是 ATen 的基础,包含了PyTorch的核心抽象、Tensor和Storage数据结构的实际实现。torch 命名空间下定义的 Tensor 相比于ATen 增加自动求导功能,但 c++ 扩展中一般不常见)

该类型功能十分强大,基本支持 PyTorch 中 Tensor 的所有运算方式(如 +, -, *, /, >, < 等运算符,.view.reshape.unsqueeze等维度变化功能等)。Tensor 的 API 接口可见官方链接。当然除了 Tensor 类型外 at 命名空间也支持几乎所有和 Tensor 有关的函数 (如 at::onesat::zeros, at::where等), ATen 的 API 接口可见官方链接(https://pytorch.org/cppdocs/api/classat_1_1_tensor.html#exhale-class-classat-1-1-tensor)。基本上只要在程序中加入了 #include <torch/extension.h> 就可以在 C++ 中调用所有 PyTorch 支持的功能。

CUDA 算子实现

 (番外篇) CUDA 编程基础

该部分内容部分参考 CUDA编程入门极简教程,感兴趣的同学可以看原文

https://blog.csdn.net/xiaohu2022/article/details/79599947。

基本概念

CUDA 是建立在 NVIDIA GPU上的一个通用并行计算平台和编程模型,CUDA编程可以利用GPUs 的并行计算引擎来更加高效地解决比较复杂的计算难题。CUDA 的语法和 C++ 大多部分情况下是一致的,其默认文件名后缀是 .cu,默认头文件名后缀是 .cuh。CUDA 编程是异构的,即CPU负责处理逻辑复杂的串行程序,而 GPU 重点处理数据密集型的并行计算程序,从而发挥最大功效。其中 CPU 所在位置称为为主机端(host),而 GPU 所在位置称为设备端(device)。

CUDA程序的设计流程

一般而言,CUDA 程序执行会依照如下流程:

  1. 分配 host 内存,并进行数据初始化

  2. 分配 device 内存,并从 host 将数据拷贝到 device 上

  3. 调用 CUDA 的核函数在 device 上完成指定的运算

  4. 将 device 上的运算结果拷贝到 host 上

  5. 释放 device 和 host 上分配的内存

而对 PyTorch 的 CUDA 扩展来说, CUDA 扩展传入和传出的 Tensor 都已经在 GPU 上,因此这里的 5 个步骤只有第 3 步了,这会为我们省下比较宝贵的时间而将更多注意力放到具体的程序实现上。

CUDA 中指定函数设备关键字

由于 CUDA 编程为异步,因此函数的定义与调用很可能不在同一个 device 上面,因此 CUDA 中骑过增加额外函数类型来规约函数的定义与调用设备。- __global__:在 device 上执行,从 host 中调用(一些特定的 GPU 也可以从 device 上调用),返回类型必须是 void,不支持可变参数参数,不能成为类成员函数。注意用__global__定义的 kernel 是异步的,这意味着 host 不会等待 kernel 执行完就执行下一步。- __device__:在 device 上执行,单仅可以从 device 中调用,不可以和__global__同时用。- __host__:在 host 上执行,仅可以从 host 上调用,一般省略不写,不可以和__global__同时用,但可和__device__,此时函数会在 device 和 host 都编译。

CUDA 中线程逻辑架构形式

一旦一个 kernel 在 device 上执行,device 上很多经量级的线程会被启动,一个 kernel 所启动的所有线程分成两级架构。所有线程归为一个网格(grid),同一个网格上的线程共享相同的全局内存空间,而网格又可以分为很多线程块(block),一个线程块里面包含很多线程。线程两层组织结构如下图所示,这是一个 gird 和 block 均为 2-dim 的线程组织。grid 和 block 都是定义为 dim3 类型的变量,dim3 可以看成是包含三个无符号整数(x,y,z)成员的结构体变量,在定义时,可定义为一维或二维,剩下维度缺少值为 1。当然这里的 grid, block 层次划分实际上只是逻辑层次,线程在 GPU 中的流处理器 (SM) 中是用“线程束”管理的,一个线程束包含 32 个线程。因此一般在设计 block 时要保证其线程个数为 32 的整数倍。

为了更好地理解这里的线程架构,我们可以直接将一个kernel 开辟的所有线程理解为一个小区,这个小区就被称为 grid,而该小区 (grid) 是由不同楼栋 (block)组成的,每个楼栋 (block)有其在小区内的三维坐标 (x, y, z)。在每个楼栋中的所有线程按其在该 block 的三维坐标 (x, y, z)来进行索引。

 

CUDA 中核函数调用                    whaosoft aiot http://143ai.com

核函数 (kernel) 是在 device上线程中并行执行的函数,核函数用__global__符号声明,在调用时需要用<<<grid, block>>>来指定 kernel 要执行的线程数量。这里 grid 与 block 都需要提前定义好,在 CUDA 中,每一个线程都要执行核函数,并且每个线程会分配一个唯一的线程号 thread ID,这个 ID 值可以通过核函数的内置变量 threadIdx 来获得。下面代码即为在上图线程逻辑架构下的核函数调用方式。​​​​​​​

dim3 grid(3, 2);dim3 block(5, 3);kernel_fun<<< grid, block >>>(prams...);

CUDA 中核函数编写

核函数调用过程中将需要并行执行的部分用不同的的线程进行完成。因此在实际 CUDA 的核函数中,系统定义了两个两个内置的坐标变量blockIdx 与 threadIdx 来唯一标识一个线程,它们都是 dim3 类型变量(包括xyz成员),其中blockIdx指明线程所在grid中的位置,而threaIdx指明线程所在block中的位置,这里 grid 与 block 正是在核函数调用过程中定义好的,在核函数的定义中也有 dim3 类型变量 gridDim与 blockDim 来分别指定 grid 与 block 的维度。如下核函数为矩阵相加的 CUDA 代码。程序执行过程中会按 blockIdx 与 threadIdx 的坐标信息将该核函数分配给不同的线程来完成,因此实现高效并行化计算。以下为一个较为典型的矩阵相加的核函数设计。

__global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N]) {     int i = blockIdx.x * blockDim.x + threadIdx.x;     int j = blockIdx.y * blockDim.y + threadIdx.y;     if (i < N && j < N)         C[i][j] = A[i][j] + B[i][j]; }

至此我们完成了一般 CUDA 算子实现的基础,在下一小节中我们再来分析 nms CUDA 算子的实例。

CUDA 算子实例​​​​​​​

// 以下程序适当改写,只显示核心代码#include <torch/extension.h>using namespace at; 

#define DIVUP(m, n) ((m) / (n) + ((m) % (n) > 0))int const threadsPerBlock = sizeof(unsigned long long int) * 8; // 64__device__ inline bool devIoU(float const *const a, float const *const b,                              const int offset, const float threshold) {  // 定义在 device 上的函数,用于返回iou  // 定义省略}
__global__ void nms_cuda(const int n_boxes, const float iou_threshold,                         const int offset, const float *dev_boxes,                         unsigned long long *dev_mask) {  // 核函数  const int row_start = blockIdx.y;  // block 在 grid 中的位置  const int col_start = blockIdx.x;  // block 在 grid 中的位置  const int tid = threadIdx.x;  // thread ID (0-63)
  if (row_start > col_start) return;
  const int row_size =      fminf(n_boxes - row_start * threadsPerBlock, threadsPerBlock);  const int col_size =      fminf(n_boxes - col_start * threadsPerBlock, threadsPerBlock);
  //  Shared memory 只会被一个 block 中的所有线程共享  __shared__ float block_boxes[threadsPerBlock * 4];  if (tid < col_size) {    block_boxes[tid * 4 + 0] =        dev_boxes[(threadsPerBlock * col_start + tid) * 4 + 0];    block_boxes[tid * 4 + 1] =        dev_boxes[(threadsPerBlock * col_start + tid) * 4 + 1];    block_boxes[tid * 4 + 2] =        dev_boxes[(threadsPerBlock * col_start + tid) * 4 + 2];    block_boxes[tid * 4 + 3] =        dev_boxes[(threadsPerBlock * col_start + tid) * 4 + 3];  }  __syncthreads(); 
  if (tid < row_size) {    const int cur_box_idx = threadsPerBlock * row_start + tid;    const float *cur_box = dev_boxes + cur_box_idx * 4;    int i = 0;    unsigned long long int t = 0;    int start = 0;    if (row_start == col_start) {      start = tid + 1;  // 每个 bbox 只需要和上三角元素计算(节省计算)    }    for (i = start; i < col_size; i++) {      if (devIoU(cur_box, block_boxes + i * 4, offset, iou_threshold)) {        t |= 1ULL << i;      }    }    dev_mask[cur_box_idx * gridDim.y + col_start] = t;  }}
Tensor NMSCUDAKernelLauncher(Tensor boxes, Tensor scores, float iou_threshold,                             int offset) {  // cuda 程序入口  at::cuda::CUDAGuard device_guard(boxes.device());  // 指定默认的显卡
  auto order_t = std::get<1>(scores.sort(0, /*descending=*/true));  auto boxes_sorted = boxes.index_select(0, order_t);
  int boxes_num = boxes.size(0);  // 这里将  const int col_blocks = DIVUP(boxes_num, threadsPerBlock);  // mask 是用来存储 bboxes 之间两两 iou 是否大于阈值的一个 mask  // 本来长度应该是 (boxes_num, boxes_num),但这里采用位存储的方式,一个 LongLong 类型可以存取 64   // 个 bool 值,因此存储空间可以缩小64倍,只用开辟 (boxes_num, boxes_num/64)长度即可。
  Tensor mask =      at::empty({boxes_num, col_blocks}, boxes.options().dtype(at::kLong));  dim3 blocks(col_blocks, col_blocks);   dim3 threads(threadsPerBlock);  // 每 64 个线程放到一个 block 中,遍历一个LongLong数的所有位  cudaStream_t stream = at::cuda::getCurrentCUDAStream();  // 更完整的核函数调用 <<< blocks, threads, shared_memory, stream>>>  nms_cuda<<<blocks, threads, 0, stream>>>(      boxes_num, iou_threshold, offset, boxes_sorted.data_ptr<float>(),      (unsigned long long*)mask.data_ptr<int64_t>());
  at::Tensor mask_cpu = mask.to(at::kCPU);  unsigned long long* mask_host =      (unsigned long long*)mask_cpu.data_ptr<int64_t>();
  std::vector<unsigned long long> remv(col_blocks);  memset(&remv[0], 0, sizeof(unsigned long long) * col_blocks);
  at::Tensor keep_t =      at::zeros({boxes_num}, boxes.options().dtype(at::kBool).device(at::kCPU));  bool* keep = keep_t.data_ptr<bool>();
  for (int i = 0; i < boxes_num; i++) {    int nblock = i / threadsPerBlock;    int inblock = i % threadsPerBlock;
    if (!(remv[nblock] & (1ULL << inblock))) {      keep[i] = true;      // set every overlap box with bit 1 in remv      unsigned long long* p = mask_host + i * col_blocks;      for (int j = nblock; j < col_blocks; j++) {        remv[j] |= p[j];      }    }  }
  AT_CUDA_CHECK(cudaGetLastError());  return order_t.masked_select(keep_t.to(at::kCUDA));}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/99785.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python 编程 函数的返回值

作者简介&#xff1a;一名在校计算机学生、每天分享Python的学习经验、和学习笔记。 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a;网络豆的主页​​​​​​ 目录 前言 一.函数 1.函数的返回值介绍 2.函数的返回值定义 例子&#xff1a; 3.函…

【图像去噪】均值+中值滤波图像去噪(含PNSR)【含GUI Matlab源码 372期】

⛄一、图像去噪及滤波简介 1 图像去噪 1.1 图像噪声定义 噪声是干扰图像视觉效果的重要因素&#xff0c;图像去噪是指减少图像中噪声的过程。噪声分类有三种&#xff1a;加性噪声&#xff0c;乘性噪声和量化噪声。我们用f(x,y&#xff09;表示图像&#xff0c;g(x,y&#xff0…

面试题:进程 线程 协程

进程&#xff08;Process&#xff09;是计算机中的程序关于某数据集合上的一次运行活动&#xff0c;是系统进行资源分配和调度的基本单位 通俗的讲&#xff1a;进程可以理解为我们在电脑上正在运行的一个个应用&#xff0c;例如&#xff1a;QQ&#xff0c;微信&#xff0c;LOL…

数据结构---寻找一个整数所有数字全排列的下一个数

寻找一个整数所有数字全排列的下一个数储备知识第一步第二步第三步JAVA实现给出一个正整数&#xff0c;找出这个正整数所有数字全排列的下一个数。说通俗点就是在一个整数所包含数字的全部组合中&#xff0c;找到一个大于且仅大于原数的新整数。 例子&#xff1a; 如果输入123…

【翻译】GPT-3是如何工作的

前排提示 这是我补充的内容&#xff0c;仅代表个人观点&#xff0c;和作者本人无关。 主要是意译我的补充&#xff0c;想看原文表达的拖到最底下有链接。 原文翻译 在科技界我们可以看到很多关于GPT-3的新闻。大型语言模型&#xff08;比如GPT-3&#xff09;已经展示出让我们惊…

[附源码]Python计算机毕业设计Django现代诗歌交流平台

项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等等。 环境需要 1.运行环境&#xff1a;最好是python3.7.7&#xff0c;…

一篇ThreadLocal走天下

尺有所短&#xff0c;寸有所长&#xff1b;不忘初心&#xff0c;方得始终。 请关注公众号&#xff1a;星河之码 在面试的时候经常会有人文ThreadLocal是啥&#xff0c;首先明确的一点是&#xff1a;虽然ThreadLocal提供了一种解决多线程环境下成员变量的问题&#xff0c;但是Th…

SSM框架学习记录-SpringMVC_day01

1.SpringMVC概述 SpringMVC功能与优点 SpringMVC是一种基于Java实现MVC模型的轻量级Web框架 SpringMVC技术与Servlet技术功能一样(对Servlet进行了封装)&#xff0c;都属于Web层开发技术 SpringMVC的主要的作用就是用来接收前端发过来的请求和数据然后经过处理并将处理的结果…

自定义注解实现参数校验

个人博客地址&#xff1a; http://xiaohe-blog.top/ 文章目录1. 为什么要进行参数校验2. 如何实现参数校验3. 注解实现参数校验4. 自定义注解实现参数校验1. 为什么要进行参数校验 在后端进行工作时&#xff0c;需要接收前端传来的数据去数据库查询&#xff0c;但是如果有些数…

目前智慧工厂建设面临的急需解决的问题有哪些?

当前国内诸多制造业企业面临着巨大的转型压力。一方面&#xff0c;劳动力成本迅速攀升、产能过剩、竞争激烈、客户个性化需求日益增长等因素&#xff0c;迫使制造企业从低成本竞争策略转向建立差异化竞争优势。具体在工厂层面&#xff0c;制造企业面临着招工难&#xff0c;以及…

去应聘测试管理职位时遇到的面试题

前言&#xff1a; 在测试管理的路上&#xff0c;少不了招聘测试管理的测试人员&#xff0c;或自己去应聘测试管理人员的时候&#xff0c;因此梳理了关于测试管理职位的面试题&#xff1a; 1、请你列举你曾经担任的测试工作职位&#xff1f; 2、你认为项目测试经理的工作职责和…

简单个人网页设计作业 静态HTML个人博客主页 DW个人网站模板下载 大学生简单个人网页作品代码 个人网页制作 学生个人网页设计作业

&#x1f389;精彩专栏推荐&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb; ✍️ 作者简介: 一个热爱把逻辑思维转变为代码的技术博主 &#x1f482; 作者主页: 【主页——&#x1f680;获取更多优质源码】 &#x1f393; web前端期末大作业…

【印刷字符识别】OCR键盘数字+字母识别【含Matlab源码 807期】

⛄一、OCR简介 1 什么是OCR技术&#xff1f; OCR英文全称是Optical Character Recognition&#xff0c;中文叫做光学字符识别。它是利用光学技术和计算机技术把印在或写在纸上的文字读取出来&#xff0c;并转换成一种计算机能够接受、人又可以理解的格式。文字识别是计算机视觉…

Java项目:SSM服装出租服装店租赁服装管理系统

作者主页&#xff1a;源码空间站2022 简介&#xff1a;Java领域优质创作者、Java项目、学习资料、技术互助 文末获取源码 项目介绍 本项目为后台管理系统&#xff1b; 管理员角色包含以下功能&#xff1a; 管理员登录,用户管理,公告管理,服装类型管理,服装信息管理,客户信息管…

计算机毕设Python+Vue新生报到管理(程序+LW+部署)

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

Java项目:SSM在线甜品商城平台

作者主页&#xff1a;源码空间站2022 简介&#xff1a;Java领域优质创作者、Java项目、学习资料、技术互助 文末获取源码 项目介绍 管理员角色包含以下功能&#xff1a; 管理员登录,套餐管理,甜品管理,预定管理等功能。 用户角色包含以下功能&#xff1a; 用户登录与注册,查看…

Activiti7-流程变量

流程变量 流程变量的作用域 设置流程定义的key为myEvection2 使用流程变量 定义好流程变量后&#xff0c;就可以在整个流程定义中使用这些流程变量了。例如可以在某些任务属性如 assignee上使用${assignee}&#xff0c;或者在某些连线上使用${day<3}。 Activiti中可以使用…

C语言初阶_初识C语言(2)

我尝试用这博客记录下我所热爱 ​我只不过是个无名小辈 ​无休止地更新 ​在名利中苦苦挣扎 ​世事变幻莫测 ​就算每一次早早被淘汰 ​在失败边缘挣扎 我的数据结构与算法系列开始了&#xff0c;有一定C语言基础的同学可以去学习&#xff01; 数据结构与算法_时间复杂度 有…

jmeter下载及安装配置

目录&#xff1a;导读 前言 jmeter环境 jmeter环境变量配置如下&#xff1a; &#xff08;1&#xff09;新增JMETER_HOME变量 &#xff08;2&#xff09;配置Path环境变量&#xff1a; &#xff08;3&#xff09;配置CLASSPATH变量&#xff0c;加上&#xff1a; &#xf…

计算机毕业设计——基于html智能家电购物商城项目的设计与实现

常见网页设计作业题材有 个人、 美食、 公司、 学校、 旅游、 电商、 宠物、 电器、 茶叶、 家居、 酒店、 舞蹈、 动漫、 服装、 体育、 化妆品、 物流、 环保、 书籍、 婚纱、 游戏、 节日、 戒烟、 电影、 摄影、 文化、 家乡、 鲜花、 礼品、 汽车、 其他等网页设计题目, A…