Pytorch常用的函数(四)深度学习中常见的上采样方法总结

news2024/11/19 18:24:01

Pytorch常用的函数(四)深度学习中常见的上采样方法总结

我们知道在深度学习中下采样的方式比较常用的有两种:

  • 池化

  • 步长为2的卷积

而在上采样过程中常用的方式有三种:

  • 插值

  • 反池化

  • 反卷积

不论是语义分割、目标检测还是三维重建等模型,都需要将提取到的高层特征进行放大,此时就需要对feature map进行上采样。

1、插值算法

插值算法中常用的方法有最近邻插值(nearest interpolation)、单线性插值(linear interpolation)、双线性插值(bilinear interpolation)等,这里只讲解最常用的最邻近插值法和双线性插值法。

1.1 pytorch中相关api

1.1.1 torch.nn.Upsample

在pytorch中,插值算法的相关api如下:

torch.nn.Upsample(
    size=None, 
    scale_factor=None, 
    mode='nearest', 
    align_corners=None, 
    recompute_scale_factor=None
)

参数说明:
①size:可以用来指定输出空间的大小,默认是None;
②scale_factor:比例因子,比如scale_factor=2,意味着将输入图像上采样2倍,默认是None;
③mode:用来指定上采样算法,有’nearest’、 ‘linear’、‘bilinear’、‘bicubic’、‘trilinear’,默认是’nearest’。
④align_corners:如果True,输入和输出张量的角像素对齐,从而保留这些像素的值,默认是False。
⑤recompute_scale_factor:

  • 如果recompute_scale_factor是True,则必须传入scale_factor并且scale_factor用于计算输出大小。计算出的输出大小将用于推断插值的新比例。请注意,当scale_factor为浮点数时,由于舍入和精度问题,它可能与重新计算的scale_factor不同。

  • 如果recompute_scale_factor是False,那么size或scale_factor将直接用于插值。

1.1.2 torch.nn.functional.interpolate

或者用如下api:

torch.nn.functional.interpolate(
     input, 
     size=None, 
     scale_factor=None, 
     mode='nearest', 
     align_corners=None, 
     recompute_scale_factor=None, 
     antialias=False
)

参数说明:
①input:输入张量;
②size:可以用来指定输出空间的大小,默认是None;
③scale_factor:比例因子,比如scale_factor=2意味着将输入图像上采样2倍,默认是None;
④mode:用来指定上采样算法,有’nearest’、 ‘linear’、‘bilinear’、‘bicubic’、‘trilinear’,默认是’nearest’。
④align_corners:如果True,输入和输出张量的角像素对齐,从而保留这些像素的值,默认是False。

⑤recompute_scale_factor:

  • 如果recompute_scale_factor是True,则必须传入scale_factor并且scale_factor用于计算输出大小。计算出的输出大小将用于推断插值的新比例。请注意,当scale_factor为浮点数时,由于舍入和精度问题,它可能与重新计算的scale_factor不同。

  • 如果recompute_scale_factor是False,那么size或scale_factor将直接用于插值。

1.2 最邻近插值法

对于未知位置,直接采用与它最邻近的像素点的值为其赋值。

最近邻插值法的计算速度很快,但是新图像局部破坏了原图的渐变关系。

import torch


input = torch.tensor([[10, 20] ,[30, 40]], dtype=torch.float32).view(1, 1, 2, 2)
    print('原始输入:\n', input)

    # 1、最近邻插值
    # 对于未知位置,直接采用与它最邻近的像素点的值为其赋值
    # 最近邻插值法的计算速度很快,但是新图像局部破坏了原图的渐变关系。
    nearest = torch.nn.Upsample(scale_factor=2, mode='nearest')
    print('最近邻插值:\n', nearest(input))
原始输入:
tensor([[[[10., 20.],
          [30., 40.]]]])
最近邻插值:
tensor([[[[10., 10., 20., 20.],
          [10., 10., 20., 20.],
          [30., 30., 40., 40.],
          [30., 30., 40., 40.]]]])

1.3 双线性插值法

1.3.1 双线性插值法计算过程

双线性插值(bilinear interpolation)又称一阶插值,根据离待插值最近的2*2=4个已知值来计算待插值。

每个已知值的权重由与待插值的距离决定,距离越近权重越大。

双线性插值是分别在两个方向计算了共3次单线性插值。

计算过程如下:

  1. 按x轴方向进行两次单线性插值
    按 x 轴方向进行两次单线性插值分别得到蓝点 R 1 和 R 2 的像素值 P 1 = f ( R 1 ) 和 P 2 = f ( R 2 ) ; 注意:此时 Q 需要加 f 函数 , 实质上下方图是: 3 维图像的映射在平面空间 P 1 = f ( R 1 ) = x 2 − x x 2 − x 1 f ( Q 11 ) + x − x 1 x 2 − x 1 f ( Q 21 ) P 2 = f ( R 2 ) = x 2 − x x 2 − x 1 f ( Q 12 ) + x − x 1 x 2 − x 1 f ( Q 22 ) 按x轴方向进行两次单线性插值分别得到蓝点R_{1}和R_{2}的像素值P_1=f(R_{1})和P_2=f(R_{2});\\ 注意:此时Q需要加f函数,实质上下方图是:3维图像的映射在平面空间\\ P_1=f(R_1)=\frac{x2-x}{x2-x1}f(Q_{11})+\frac{x-x1}{x2-x1}f(Q_{21}) \\ P_2=f(R_2)=\frac{x2-x}{x2-x1}f(Q_{12})+\frac{x-x1}{x2-x1}f(Q_{22}) x轴方向进行两次单线性插值分别得到蓝点R1R2的像素值P1=f(R1)P2=f(R2)注意:此时Q需要加f函数,实质上下方图是:3维图像的映射在平面空间P1=f(R1)=x2x1x2xf(Q11)+x2x1xx1f(Q21)P2=f(R2)=x2x1x2xf(Q12)+x2x1xx1f(Q22)
  2. 按y轴方向进行一次单线性插值
    按 y 轴方向进行一次单线性插值即可得到点 P 的像素值 f ( P ) f ( P ) = y 2 − y y 2 − y 1 f ( R 1 ) + y − y 1 y 2 − y 1 f ( R 2 ) 按y轴方向进行一次单线性插值即可得到点P的像素值f(P) \\ f(P)=\frac{y2-y}{y2-y1}f(R_{1})+\frac{y-y1}{y2-y1}f(R_{2}) y轴方向进行一次单线性插值即可得到点P的像素值f(P)f(P)=y2y1y2yf(R1)+y2y1yy1f(R2)
    在这里插入图片描述

为了方便理解,我们再从三维进行理解:

  1. 按x轴方向进行两次单线性插值
    按 x 轴方向进行两次单线性插值分别得到蓝点 R 1 和 R 2 的像素值 P 1 = f ( R 1 ) 和 P 2 = f ( R 2 ) ; f ( Q 11 ) = P 11 , f ( Q 21 ) = P 21 P 1 = f ( R 1 ) = x 2 − x x 2 − x 1 P 11 + x − x 1 x 2 − x 1 P 21 另外, f ( Q 12 ) = P 12 , f ( Q 23 ) = P 22 P 2 = f ( R 2 ) = x 2 − x x 2 − x 1 P 12 + x − x 1 x 2 − x 1 P 22 按x轴方向进行两次单线性插值分别得到蓝点R_{1}和R_{2}的像素值P_1=f(R_{1})和P_2=f(R_{2});\\ f(Q_{11})=P_{11},f(Q_{21})=P_{21}\\ P_1=f(R_1)=\frac{x2-x}{x2-x1}P_{11}+\frac{x-x1}{x2-x1}P_{21} \\ 另外,f(Q_{12})=P_{12},f(Q_{23})=P_{22}\\ P_2=f(R_2)=\frac{x2-x}{x2-x1}P_{12}+\frac{x-x1}{x2-x1}P_{22} x轴方向进行两次单线性插值分别得到蓝点R1R2的像素值P1=f(R1)P2=f(R2)f(Q11)=P11,f(Q21)=P21P1=f(R1)=x2x1x2xP11+x2x1xx1P21另外,f(Q12)=P12,f(Q23)=P22P2=f(R2)=x2x1x2xP12+x2x1xx1P22

  2. 按y轴方向进行一次单线性插值
    按 y 轴方向进行一次单线性插值即可得到点 P 的像素值 f ( P ) f ( P ) = y 2 − y y 2 − y 1 P 1 + y − y 1 y 2 − y 1 P 2 按y轴方向进行一次单线性插值即可得到点P的像素值f(P) \\ f(P)=\frac{y2-y}{y2-y1}P_{1}+\frac{y-y1}{y2-y1}P_{2} y轴方向进行一次单线性插值即可得到点P的像素值f(P)f(P)=y2y1y2yP1+y2y1yy1P2
    在这里插入图片描述

我们将P1和P2代入,可以得到下面公式:
f ( P ) = P 11 ( x 2 − x 1 ) ( y 2 − y 1 ) ( x 2 − x ) ( y 2 − y ) + P 21 ( x 2 − x 1 ) ( y 2 − y 1 ) ( x − x 1 ) ( y 2 − y ) + P 12 ( x 2 − x 1 ) ( y 2 − y 1 ) ( x 2 − x ) ( y − y 1 ) + P 22 ( x 2 − x 1 ) ( y 2 − y 1 ) ( x − x 1 ) ( y − y 1 ) f(P)=\frac{P_{11}}{(x2-x1)(y2-y1)}(x2-x)(y2-y) \\ +\frac{P_{21}}{(x2-x1)(y2-y1)}(x-x1)(y2-y) \\ +\frac{P_{12}}{(x2-x1)(y2-y1)}(x2-x)(y-y1) \\ +\frac{P_{22}}{(x2-x1)(y2-y1)}(x-x1)(y-y1) f(P)=(x2x1)(y2y1)P11(x2x)(y2y)+(x2x1)(y2y1)P21(xx1)(y2y)+(x2x1)(y2y1)P12(x2x)(yy1)+(x2x1)(y2y1)P22(xx1)(yy1)
在这里插入图片描述

由上图可知,分母可以化简为 1 ,因此 f ( P ) = P 11 ( x 2 − x ) ( y 2 − y ) + P 21 ( x − x 1 ) ( y 2 − y ) + P 12 ( x 2 − x ) ( y − y 1 ) + P 22 ( x − x 1 ) ( y − y 1 ) 由上图可知,分母可以化简为1,因此f(P)=P_{11}(x2-x)(y2-y) \\+P_{21}(x-x1)(y2-y) \\+P_{12}(x2-x)(y-y1) \\+P_{22}(x-x1)(y-y1) 由上图可知,分母可以化简为1,因此f(P)=P11(x2x)(y2y)+P21(xx1)(y2y)+P12(x2x)(yy1)+P22(xx1)(yy1)

1.3.2 pytorch例子详解

m = torch.nn.Upsample(scale_factor=2, mode='bilinear')
output1 = m(input)
print('双线性插值:\n', output1)
# 可以看到,通过双线性插值的方式,将2x2的原矩阵插值成4x4的目标矩阵。
双线性插值:
tensor([[[[10.0000, 12.5000, 17.5000, 20.0000],
          [15.0000, 17.5000, 22.5000, 25.0000],
          [25.0000, 27.5000, 32.5000, 35.0000],
          [30.0000, 32.5000, 37.5000, 40.0000]]]])

上面的例子对应的图片如下图所示。

在这里插入图片描述

我们来计算P2的值(即P2=12.5)。

目标图像中P2为(0,1),可以根据下面公式计算出在原始图像中的坐标为(-0.25,0.25)。

在这里插入图片描述

(-0.25, 0.25)周围四个点分别为(-1, 0), (-1, 1), (0, 0), (0, 1)。对于是负数的坐标点,可以先对源矩阵进行拓展,拓展后的矩阵如下图所示。

这样我们将(-0.25, 0.25)代入化简后f公式,就得出f(结果P)=12.5
其中, P 11 = 10 , P 21 = 10 , P 12 = 20 , P 22 = 20 ( x 1 , y 1 ) = ( − 1 , 0 ) , ( x 1 , y 2 ) = ( − 1 , 1 ) ( x 2 , y 1 ) = ( 0 , 0 ) , ( x 2 , y 2 ) = ( 0 , 1 ) x = − 0.25 , y = 0.25 其中,P_{11}=10,P_{21}=10,P_{12}=20,P_{22}=20 \\ (x_1,y_1) = (-1,0),(x_1,y_2)= (-1,1) \\ (x_2,y_1)= (0,0),(x_2,y_2)= (0,1) \\ x=-0.25,y=0.25 其中,P11=10P21=10P12=20P22=20(x1,y1)=(1,0),(x1,y2)=(1,1)(x2,y1)=(0,0),(x2,y2)=(0,1)x=0.25,y=0.25
在这里插入图片描述

1.3.3 align_corners参数

align_corners参数设为True和False,其上采样结果是不同的

    m = torch.nn.Upsample(scale_factor=2, mode='bilinear')
    output1 = m(input)
    print('双线性插值:\n', output1)

    n = torch.nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True)
    output2 = n(input)
    print('双线性插值align_corners=True:\n',output2)
双线性插值:
tensor([[[[10.0000, 12.5000, 17.5000, 20.0000],
          [15.0000, 17.5000, 22.5000, 25.0000],
          [25.0000, 27.5000, 32.5000, 35.0000],
          [30.0000, 32.5000, 37.5000, 40.0000]]]])
          
双线性插值align_corners=True:
tensor([[[[10.0000, 13.3333, 16.6667, 20.0000],
          [16.6667, 20.0000, 23.3333, 26.6667],
          [23.3333, 26.6667, 30.0000, 33.3333],
          [30.0000, 33.3333, 36.6667, 40.0000]]]])

之所以造成上采样结果不同,其主要原因是看待像素的方式不同:

①Centers-aligned:将像素看作一个有面积的方格,方格中心点位置代表这个像素。
align_corners=False就是以这种方式看待像素的,像素的坐标并不是图像矩阵所对应的下标,
而是需要将下标i,j各加上0.5才是此时每个像素在坐标系里的坐标(以左上角为原点,x轴向右为正,y轴向下为正)。

②Corners-aligned:将像素看作一个理想的点,这个点的位置就代表这个像素。
align_corners=True是以这种方式看待像素的,每个像素的在矩阵里的下标i,j被直接视作坐标系里的一个个的坐标点进行计算。

在这里插入图片描述

具体原理可以参考视频:

https://www.bilibili.com/video/BV1wh411E7j9

2、反池化

反池化是池化的逆操作,是无法通过池化的结果还原出全部的原始数据,现如今很少使用这种方法去实现图像的上采样。因为池化的过程就只保留了主要信息,舍去部分信息。如果想从池化后的这些主要信息恢复出全部信息,则存在信息缺失,这时只能通过补位来实现最大程度的信息完整。

池化有两种:最大池化和平均池化,其反池化也需要与其对应。

2.1 反平均池化

首先还原成原来的大小,然后将池化结果中的每个值都填入其对应原始数据区域中相应位置即可。

平均池化和反平均池化的过程如下:

在这里插入图片描述

2.2 反最大池化

在池化过程中记录最大激活值的坐标位置,然后在反池化时,只把池化过程中最大激活值所在位置坐标值激活,其他的值设置为0。

当然,这个过程只是一种近似。因为在池化过程中,除了最大值的位置,其他的值也是不为0的。

import torch
import torch.nn as nn


if __name__ == '__main__':
    # 1、最大池化与反最大池化
    # 最大池化
    input = torch.randint(0, 4, size=(1, 1, 4, 4), dtype=torch.float32)
    print('原始输入:\n',input)

    '''
    反池化与前面的池化基本相同,参数一般仍然需要kernel_size,stride,padding等。

    对于反最大池化,我们还需要提供参数indices。
    indices表示下池化过程中池化窗口返回那个最大值的位置索引。
    事实上,在前面的最大池化中,参数return_indices即表示是否返回索引,只不过该函数默认为False。
    '''
    maxpool = nn.MaxPool2d(kernel_size=2, stride=2, return_indices=True)

    output, indices = maxpool(input)
    print('池化后结果:\n', output)                 # 池化后结果
    print('池化后indices:\n', indices)            # 池化后indices
原始输入:
tensor([[[[1., 1., 0., 0.],
          [1., 2., 2., 3.],
          [3., 3., 2., 0.],
          [1., 1., 2., 2.]]]])
池化后结果:
tensor([[[[2., 3.],
          [3., 2.]]]])
池化后indices:
tensor([[[[ 5,  7],
          [ 8, 10]]]])

# 反池化时,只把池化过程中最大激活值所在位置坐标值激活,其他的值设置为0。
反最大池化后结果:
tensor([[[[0., 0., 0., 0.],
          [0., 2., 0., 3.],
          [3., 0., 2., 0.],
          [0., 0., 0., 0.]]]])

3、反卷积

3.1 常规卷积的计算过程

对于正常的卷积,我们需要实现大量的相乘相加操作,而这种乘加的方式恰好是矩阵乘法所擅长的。 所以在代码实现的时候,通常会借助矩阵乘法快速的实现卷积操作, 那么这是怎么做的呢?假设输入图像尺寸为4 × 4 , 卷积核为3 × 3 , padding=0, stride=1,通过计算可知,卷积之后输出图像的尺寸为2×2,如下图所示:

在这里插入图片描述

常规卷积在代码实现时的具体过程就是:

  • 首先将代表输入图像的4 × 4 矩阵转换成16 × 1 的列向量,

  • 由于计算可知输出图像是2×2的矩阵,同样将其转换成4×1的列向量

  • 那么由矩阵乘法可知,参数矩阵必定是4×16的,那么这个4×16的参数矩阵是怎么来的呢?从上图很明显可知4就是卷积核窗口滑动了4次就遍历完整个输入图像了,这个16就是先把3×3的9个权值拉成一行,然后根据窗口在输入图像上滑动的位置补7个0凑成16个参数,这16个参数就是输入图像16个像素各自对应的权重参数。
    在这里插入图片描述

3.2 转置卷积(反卷积)的计算过程

反卷积又被称为转置卷积,其实这个函数最准确的叫法应该是转置卷积。

转置卷积是一种上采样方法,输入的图像尺寸是比较小的,经过转置卷积之后,会输出一个更大的图像。假设输入图像尺寸为2 × 2 , 卷积核为3 × 3 ,padding=0, stride=1,通过转置卷积会得到4×4的输出图像,如下图所示:

在这里插入图片描述

转置卷积在代码实现时的具体过程就是:

首先将代表输入图像的2 × 2 矩阵转换成4 × 1 的列向量

由于转置卷积后输出图像是4×4的矩阵,同样将其转换成16×1的列向量

那么由矩阵乘法可知,参数矩阵必定是16×4的,那么这个16×4的参数矩阵是怎么来的呢?从上图很明显可知16就是卷积核窗口滑动了16次就遍历完整个输入图像了,虽然这里的卷积核有9个权值,可是能与图像相乘的最多只有四个(也就是卷积核在中间的时候), 这便是参数矩阵中4的含义。

在这里插入图片描述

3.3 pytorch例子

反卷积又被称为转置卷积

torch.nn.ConvTranspose2d(
   in_channels,
   out_channels,
   kernel_size,
   stride=1,
   padding=0,
   output_padding=0,
   groups=1,
   bias=True,
   dilation=1,
   padding_mode='zeros',
   device=None,
   dtype=None
)

参数说明:
in_channels: 输入的通道数
out_channels:输出的通道数
kernel_size:卷积核的大小
stride:卷积核滑动的步长,默认是1
padding:怎么填充输入图像,此参数的类型可以是int , tuple或str , optional 。默认padding=0,即不填充。
dilation:设置膨胀率,即核内元素间距,默认是1。
    如果kernel_size=3,dilation=1,那么卷积核大小就是3×3;
    如果kernel_size=3,dilation=2,那么卷积核大小为5×5
groups:通过设置这个参数来决定分几组进行卷积,默认是1,即默认是普通卷积, 此时卷积核通道数=输入通道数
bias:是否添加偏差,默认true
padding_mode:填充时,此参数决定用什么值来填充,默认是'zeros',即用0填充
    可选参数有'zeros', 'reflect', 'replicate''circular'
import torch
import torch.nn as nn


if __name__ == '__main__':
    input = torch.tensor([
        [1, 2, 3, 4],
        [6, 7, 8, 9],
        [9, 8, 7, 6],
        [4, 3, 2, 1]
    ], dtype=torch.float32).view(1, 1, 4, 4)

    print('原始输入:\n', input)
    # 1、常规卷积
    conv2 = nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3, bias=False)

    kernel = torch.tensor(
        [
            [1, 0, 1],
            [0, 1, 0],
            [1, 0, 1]
        ], dtype=torch.float32
    ).view(1, 1, 3, 3)

    for param in conv2.parameters():
        param.data = kernel
        print('自定义kernel结果:\n', param)

    output = conv2(input)
    print('卷积结果:\n', output)


    print('-'*80)

    # 2、反卷积
    convtrans = nn.ConvTranspose2d(in_channels=1, out_channels=1, kernel_size=3, bias=False)
    input = torch.tensor([
        [1, 2],
        [3, 4]
    ], dtype=torch.float32).view(1, 1, 2, 2)

    kernel = torch.tensor(
        [
            [1, 2, 3],
            [4, 5, 6],
            [7, 8, 9]
        ], dtype=torch.float32
    ).view(1, 1, 3, 3)

    for param in convtrans.parameters():
        param.data = kernel
        print('自定义kernel结果:\n', param)
    print('反卷积结果:\n', convtrans(input))
原始输入:
tensor([[[[1., 2., 3., 4.],
          [6., 7., 8., 9.],
          [9., 8., 7., 6.],
          [4., 3., 2., 1.]]]])
自定义kernel结果:
 Parameter containing:
tensor([[[[1., 0., 1.],
          [0., 1., 0.],
          [1., 0., 1.]]]], requires_grad=True)
卷积结果:
tensor([[[[27., 28.],
          [28., 27.]]]], grad_fn=<ConvolutionBackward0>)
--------------------------------------------------------------------------------
自定义kernel结果:
 Parameter containing:
tensor([[[[1., 2., 3.],
          [4., 5., 6.],
          [7., 8., 9.]]]], requires_grad=True)
反卷积结果:
tensor([[[[ 1.,  4.,  7.,  6.],
          [ 7., 23., 33., 24.],
          [19., 53., 63., 42.],
          [21., 52., 59., 36.]]]], grad_fn=<ConvolutionBackward0>)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1196069.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

使用迁移学习在线校准深度学习模型

使用迁移学习在线校准深度学习模型 本文参考的是2023年发表于Engineering Applications of Artificial Intelligence, EAAI的Deep Gaussian mixture adaptive network for robust soft sensor modeling with a closed-loop calibration mechanism 1. 动机 概念漂移导致历史训…

基于SSM的科技公司门户网站

末尾获取源码 开发语言&#xff1a;Java Java开发工具&#xff1a;JDK1.8 后端框架&#xff1a;SSM 前端&#xff1a;采用JSP技术开发 数据库&#xff1a;MySQL5.7和Navicat管理工具结合 服务器&#xff1a;Tomcat8.5 开发软件&#xff1a;IDEA / Eclipse 是否Maven项目&#x…

幸运素数(找出给定区间的所有幸运素数)

从键盘输入一个区间&#xff0c;程序判定输出区间的所有幸运素数。 (笔记模板由python脚本于2023年11月11日 12:44:43创建&#xff0c;本篇笔记适合熟悉python整型数据类型和基本编程技巧的coder翻阅) 【学习的细节是欢悦的历程】 Python 官网&#xff1a;https://www.python.o…

如何将NetCore Web程序独立发布部署到Linux服务器

简介 在将 .NET Core 应用程序部署到 Linux 服务器上时,可以采用独立发布的方式,以便在目标服务器上运行应用程序而无需安装 .NET Core 运行时。本文介绍如果将NetCore Web程序独立发布部署到Linux服务器。 1、准备一台服务器 服务器配置:2核2G 系统环境:Alibaba Cloud…

解决win11更新后,文件夹打不开的bug

更新win11系统了&#xff0c;给我更了个bug&#xff0c;找了好多解决方案&#xff0c;发现下面这个可以解决问题。 第一步 找到注册表 第二步 备份注册表 为了防止意外情况&#xff0c;备份注册表。如有意外问题&#xff0c;可以导入导出的注册表进行恢复。 第三步 删除指定…

Android 解决CameraView叠加2个以上滤镜拍照黑屏的BUG (一)

1. 前言 这段时间&#xff0c;在使用 natario1/CameraView 来实现带滤镜的预览、拍照、录像功能。 由于CameraView封装的比较到位&#xff0c;在项目前期&#xff0c;的确为我们节省了不少时间。 但随着项目持续深入&#xff0c;对于CameraView的使用进入深水区&#xff0c;逐…

程序员千万不能去这些公司,听一下我这个学长的经验。

俗话说“条条大路通罗马”&#xff0c;但是对于程序员来说&#xff0c;有些路千万别走&#xff0c;走得越久越难以抽身&#xff0c;甚至说毁掉你的职业生涯。 今天来跟大家讲一下&#xff0c;作为程序员&#xff0c;有些公司千万不要进去&#xff0c;你以为稀松平常&#xff0…

华为防火墙vrrp+hrp双机热备负载分担(两端为交换机)

主要配置&#xff1a; FW1 hrp enable hrp interface GigabitEthernet1/0/2 remote 172.16.0.2 interface GigabitEthernet1/0/0 这里可以假想为接两条外线&#xff0c;一条外线对应一个vrrid undo shutdown ip address 1.1.1.2 255.255.255.0 vrrp vrid 3 virtual-ip 1.1.1…

基于SpringBoot的SSMP整合案例(实体类开发与数据层开发)

实体类开发 导入依赖 Lombok&#xff0c;一个Java类库&#xff0c;提供了一组注解&#xff0c;简化POJO实体类开发<dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId> </dependency>lombok版本由SpringB…

LeetCode【215】数组中第k大的元素

题目&#xff1a; 思路&#xff1a; https://zhuanlan.zhihu.com/p/59110615 代码&#xff1a; public int findKthLargest(int[] nums, int k) {PriorityQueue<Integer> queue new PriorityQueue<>((o1, o2) -> o1 - o2);for (int i 0; i < nums.lengt…

刚学C语言太无趣 推荐一个好用易学的可视化框架:EasyX。VC6.0就能写

很多同学在大一刚学C语言时&#xff0c;是不是很好奇为什么别人编程都在做软件&#xff0c;而自己只能面对着黑窗口进行 printf &#xff1f; EasyX&#xff0c;C语言可视化编程。 分享我大一时候做的一个项目&#xff0c;用 VC6.0 开发的一款画图软件&#xff1a; 这个软件源…

02MyBatisPlus条件构造器,自定义SQL,Service接口

一、条件构造器 1.MyBatis支持各种复杂的where条件&#xff0c;满足开发的需求 Wrapper是条件构造器&#xff0c;构建复杂的where查询 AbstractWrapper有构造where条件的所有方法&#xff0c;QueryWrapper继承后并有自己的select指定查询字段。UpdateWrapper有指定更新的字段的…

bat脚本设置变量有空格踩到的坑

SET PATH c:\xxx;%PATH% 我想把一个路径作为path环境变量最前面的一个&#xff0c;所以使用了上面的语句。 但是没有生效&#xff0c;我还以为是其他什么原因&#xff0c;后来又有一个类似的需求&#xff1a; set output output\x64 结果在使用 %output% 的时候是一个空格&…

常见排序算法之快速排序

快速排序是Hoare于1962年提出的一种二叉树结构的交换排序方法。 基本思想为∶任取待排序元素序列中的某元素作为基准值&#xff0c;按照该排序码将待排序集合分割成两子序列&#xff0c;左子序列中所有元素均小于基准值&#xff0c;右子序列中所有元素均大于基准值&#xff0c;…

Flutter 实战:构建跨平台应用

文章目录 一、简介二、开发环境搭建三、实战案例&#xff1a;开发一个简单的天气应用1. 项目创建2. 界面设计3. 数据获取4. 实现数据获取和处理5. 界面展示6. 添加动态效果和交互7. 添加网络错误处理8. 添加刷新功能9. 添加定位功能10. 添加通知功能11. 添加数据持久化功能 《F…

【Unity细节】Failed importing package???Unity导包失败?

&#x1f468;‍&#x1f4bb;个人主页&#xff1a;元宇宙-秩沅 hallo 欢迎 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! 本文由 秩沅 原创 &#x1f636;‍&#x1f32b;️收录于专栏&#xff1a;unity细节和bug &#x1f636;‍&#x1f32b;️优质专栏 ⭐【…

计算机服务器中了mallox勒索病毒怎么解决,勒索病毒解密,数据恢复

企业的计算机服务器为企业的数据存储提供了极大便利&#xff0c;也让企业的生产运行效率得到了极大提升&#xff0c;但是网络数据安全威胁随着技术的不断发展也不断增加。近期&#xff0c;云天数据恢复中心接到很多企业的求助&#xff0c;企业的计算机服务器遭到了mallox勒索病…

图神经网络 (GNN)

目录 一、GNN介绍1.1引入1.1.1图的介绍1.1.2怎样将内容表示成图1.1.4图神经网络是在做什么 1.2基本概念 二、GNN流程2.1聚合2.2更新2.2.1一次GNN操作 2.3循环2.3.1多层GNN操作2.3.2能做什么 三、GNN算法原理3.1数据3.2变量定义3.3GNN算法3.3.1Forward3.3.2Backward 四、GNN优势…

Unity 调用自己封装好的DLL库

因为做项目时会用到很多重复的方法&#xff0c;每次都重新写有点浪费时间&#xff0c;就可以将这些方法封装成DLL类库&#xff0c;用的时候直接引入调用就行。 首先在VS里面创建类库文件 注&#xff1a;.NET Framework要选3.5以下 然后定义好命名空间名字和类名就可以写自己要…

互联网按摩预约小程序开发;

随着移动互联网的普及&#xff0c;越来越多的人开始通过手机预约按摩服务。按摩预约小程序是一种方便快捷的预约方式&#xff0c;可以让用户随时随地预约按摩服务。那么&#xff0c;按摩预约小程序的开发周期要多久&#xff1f;按摩预约小程序的功能有哪些呢&#xff1f;本文将…