OpenMMLab【超级视客营】——支持InverseForm Loss(MMSegmentation的第三个PR)

news2024/12/25 23:56:19

文章目录

  • 1. 任务目标
    • 1.1 issue
    • 1.2 原理相关资料(论文讲解)
      • InverseForm
      • STN(Spatial Transformer Networks)
    • 1.3 实现相关资料(相关PR)
  • 2. 理解原理
  • 3. 代码实现
    • 3.X checklist
    • 3.0 Issue中的有效内容
    • 3.1 MMSegmentation支持multiple loss
    • 3.2 北京超级云计算中心-环境配置
    • 3.3 创建分支
    • 3.4 执行官方repo的推理
    • 3.5 自己写代码
    • 3.6 报错 ImportError: cannot import name 'InverseFormLoss' from 'mmseg.models.losses'
    • 3.7 RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU.
    • 3.8 pytest.raises Failed: DID NOT RAISE with try/except
    • 3.9 构建文档报错

1. 任务目标

时间:8.3~8.31

1.1 issue

  • 提出需求的 issue: https://github.com/open-mmlab/mmsegmentation/issues/3159
  • 参考 repo : https://github.com/Qualcomm-AI-research/InverseForm,用到的文件:
    • https://github.com/NVIDIA/semantic-segmentation/blob/main/network/attnscale.py
    • https://github.com/zijundeng/pytorch-semantic-segmentation/tree/master/utils
  • 参考论文:https://arxiv.org/abs/2104.02745
  • 论文Appendix:https://openaccess.thecvf.com/content/CVPR2021/supplemental/Borse_InverseForm_A_Loss_CVPR_2021_supplemental.pdf
  • discussions:https://github.com/open-mmlab/OpenMMLabCamp/discussions/522

1.2 原理相关资料(论文讲解)

InverseForm

  • 【论文笔记】InverseForm: A Loss Function for Structured Boundary-Aware Segmentation
  • InverseForm:结构边缘感知的损失函数
  • 【图像分割】InverseForm: A Loss Function for Structured Boundary-Aware Segmentation
  • Transformer在3D语义分割中的应用
  • 碎碎念:B站上好像也没有讲这个论文的教程,是因为很简单吗?

STN(Spatial Transformer Networks)

理论上来说,InverseForm所依赖的网络是STN的逆操作

  • 李宏毅老师的视频:Spatial Transformer Networks
  • STN(Spatial Transformer Networks)
  • Spatial Transformer Networks(STN)详解
    • pytorch的教程:https://pytorch.org/tutorials/intermediate/spatial_transformer_tutorial.html
    • 这两个的代码实现是类似的
    • github上也有相关的repo:https://github.com/fxia22/stn.pytorch
  • Spatial Transformer Networks,这个人的专栏写的很好,可以参考学习
  • 大学课件pdf:Spatial Transformer Networks
  • Review: STN — Spatial Transformer Network (Image Classification)

1.3 实现相关资料(相关PR)

  • https://github.com/open-mmlab/mmsegmentation/pull/3242
  • https://github.com/open-mmlab/mmsegmentation/pull/3237/files
  • https://github.com/open-mmlab/mmsegmentation/pull/3002/files#diff-6b13122fc8d4a0c49faf7c7052dbf6ff6e9287d96ecf84f1f7d3959c935b0348
  • https://github.com/open-mmlab/mmsegmentation/pull/2791/files

根据以上PR,确定要改的文件是:

  • mmsegmentation/mmseg/models/losses
  • mmsegmentation/tests/test_models/test_losses/
    • 关于单元测试,除了看现有脚本,也可以看看这个教程,单元测试贡献指南(建设中)

2. 理解原理

3. 代码实现

源码中最重要的几个文件:

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/InverseForm.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/loss/utils.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/utils/trnval_utils.py,训练时很多内容是参考了这两个项目,代码是直接搬过来的,没有修改。
    • NVIDIA的项目:https://github.com/NVIDIA/semantic-segmentation/blob/main/network/attnscale.py

3.X checklist

  • 实现inverseformloss
  • inverseformloss的单元测试
  • 提供一个整合了inverseformloss架构的分割网络,初步定为orcnet

3.0 Issue中的有效内容

2021年论文刚发布的时候很多issue是回复了,后面的就没有什么回复了。。。还是有一些是有价值的信息。

Design question #6

  • 问: 为什么b_gt是通过对真实seg图像进行sobel处理得到,而b_pred不是通过类似方式,即对预测seg图像进行sobel处理得到?
  • 答:不好收敛,实验效果不好,所以采取了通过对预测seg添加约束,即将y_pred送入一个boundary head来生成b_pred

Questions about the test dataset #5

  • 问:训练时的edge_gts = inputs['edge']是怎么得到的
  • 答:是从y_gt中提取的,可以在gt map上使用sobel/laplacian,然后再threshold得到一个二值图。

Training the Inverseform Net on custom dataset #7

  • :为什么要对每个数据集分别训练InverseForm Net,数据集的边界变换的差异有这么大吗?
  • 答:一开始只是在Imagenet上训练了一个IF module,并将其用于所有的数据集,这个方式和现在论文里显示的对每个数据集都单独训练一个IF module效果是类似的。
    坚持当前的策略(在同一数据集上进行训练):是为了说明改进并非来自辅助数据集(Imagenet)
    因此,实际使用的时候,可以用任意一个数据集训练的IF module
  • :Imagenet没有提供b_gt(边界map),你是如何在ImageNet上训练IF module的呢
  • 答:可以直接从seg mask提取,或者直接从原图提取也可以
  • :如何得到 transformed GT masks,STN的pipeline是什么
  • 答:直接用pytorch的STN: https://pytorch.org/tutorials/intermediate/spatial_transformer_tutorial.html
  • :在单个数据集上训练的IF module,当插入分割网络后,可以适应不同数据集的边缘map的单应性变换?
  • 答:我们的实验和观测结果是支持这个观点的

Two confusions about the code #1

  • 问:按照论文,InverseFormNet应该会输出6个或者8个值,但是代码里实际只输出了4个值,这4个值代表什么?
  • 答:上传的是最近开发的InverseFormNet的轻量化版本,输出的4个值是normalized后的shift和scale,提供的代码里使用的是Euclidian距离。你也可以按照论文里说的用欧氏距离的6个参数或者测地距离的8个参数随意进行实验,在使用测地距离的时候,确实会有搜索空间受到严重限制的问题。

Confuse about predict scales and shifts and the loss #9

  • 问:上一个问题里提到InverseFormNet输出的四个参数分别是shift和scale,因此如果要优化InverseForm loss,应该是让scale接近1,让shift接近0,但是在InverseTransform2D的代码中,有mean_square_inverse_loss = (((distance_coeffs*distance_coeffs).sum(dim=1))**0.5).mean(),这会让4个值都朝着向0的方向优化。
  • 答:如果使用的损失函数是欧式距离,那么提前归一化,是为了减少对任意一个参数的偏差。
  • 这个问题不对,shift和scale参数可以放在一个 3 × 3 3\times 3 3×3的矩阵里,如果InverseFormNet输出的矩阵越靠近单位矩阵(预测的边界越接近真实边界),则预测的转换矩阵与单位矩阵相减之后,shift和scale减法之后那个位置的值都是朝着0优化的

3.1 MMSegmentation支持multiple loss

  • How to combine multiple loss functions? #779
  • Docs > Basic Concepts > Training Tricks Multiple Losses

3.2 北京超级云计算中心-环境配置

访问:https://cloud.blsc.cn,直接使用用户名密码无法成功登录,需要关注北京超级云计算中心,微信扫码登录,在微信的页面里填写邮件里给的用户和密码。

然后就可以看到控制台了,在资源管理->SSH直连管理中配置密钥或者密码
在这里插入图片描述
配置好之后,复制下面给的ssh命令,
在这里插入图片描述
可以视情况选择接入网络,我用Hong Kong不行,但是用Zhongwei可以

直接用vscode登录,打开文件夹,或者用MobaXTerm等你习惯的终端连接软件去ssh连接,输入密码就行(默认用户名已经@在了ssh命令中,你只需要输入你上面创建的密码的值即可)

配置python环境

# 查看可用软件
> module avail
[scw6886@ln01 run]$ module avail

------------------------------------------------------------- /data/apps_4090/modulefiles -------------------------------------------------------------
alphafold/2.3.1                            gdb/7.6.1                                  openblas/0.3.22
amber/22_ambertools23                      go/1.18.2                                  opencv/3.4.16
anaconda/2020.11                           gromacs/2022.5_nompi_cuda11.8              opencv/4.5.5
anaconda/2021.05                           hdf5/1.12.1                                OpenMMLab/MMDetection3.1.0_py38
anaconda/2022.10                           hwloc/2.1.0                                OpenMMLab/MMDetection_base_py38
arias/1.36.0                               intel/parallelstudio/2017.1.5              openmpi/4.1.1
blas/3.10.0                                intel/parallelstudio/2019.3.0              openmpi/4.1.5_gcc11.2_ucx1.14.1_cuda11.8
cmake/3.22.0                               intel/parallelstudio/2021.1.1              openmpi/4.1.5_ucx1.14.1_nvhpc23.5_cuda12.1
complier/gcc/12.2.0                        jupyter/lab                                p7zip/16.02
cuda/11.7                                  jupyter/notebook                           p7zip/21.02
cuda/11.8                                  lapack/3.10.1                              plumed/2.7.2
cuda/12.1                                  libevent/2.1.12                            pmix/3.2.2
cuda/12.2                                  namd/2.14-verbs-linux-x86_64-gcc-smp-CUDA  pnetcdf/1.12.2/openmpi_gcc9.3
cudnn/8.2.1_cuda11.x                       namd/2.15_2022-07-21_multicore_CUDA        qflow/1.0
cudnn/8.5.0_cuda11.x                       namd/3.0b3_multicore_CUDA                  rar/611
cudnn/8.6.0_cuda11.x                       nccl/2.11.4-1_RTX4090-cuda11.8             relion/3.0.8
cudnn/8.7.0_cuda11.x                       nccl/2.18.1-1_RTX4090-cuda11.8             relion/3.1.3
cudnn/8.9.3.28_cuda12.x                    netcdf-c/4.8.1/openmpi_gcc9.3              singularity/2.6.0
dos2unix/6.0.3                             nvhpc/nvhpc/23.7                           singularity/3.10.0
fftw/3.3.9                                 nvhpc/nvhpc-byo-compiler/22.11             singularity/3.9.9
fftw/3.3.9-ompi-float                      nvhpc/nvhpc-byo-compiler/23.5              tensorboard/2.3.0
gcc/11.2                                   nvhpc/nvhpc-byo-compiler/23.7              ucx/1.14.1_gcc11.2_cuda11.8
gcc/5.4                                    nvhpc/nvhpc-hpcx/23.7                      ucx/1.14.1_nvhpc23.5_cuda12.1
gcc/6.3                                    nvhpc/nvhpc-hpcx-cuda12/23.7               ucx/1.8
gcc/7.3                                    nvhpc/nvhpc-nompi/22.11                    ucx/1.9
gcc/8.3                                    nvhpc/nvhpc-nompi/23.5                     xesces/3.2.0
gcc/9.3                                    nvhpc/nvhpc-nompi/23.7                     zlib/1.2.11

该有的基本都有,还算比较全,

  1. 安装anaconda,
    module load anaconda/2021.05
    # anaconda/2022.10 这个版本会报错
    conda init
    source ~/.bashrc
    
  2. 修改~/.bashrc脚本
    • module加载的软件环境只在当前登录窗口有效,退出登录后软件环境就会失效。
    • 用户如果需要经常使用一个软件,可以把load命令放在~/.bashrc或者提交脚本中
    vim ~/.bashrc
    module load anaconda/2021.05
    module load jupyter/lab 
    module load jupyter/notebook
    module load cuda/11.8
    module load cudnn/8.7.0_cuda11.x 
    module load gcc/8.3  
    
  3. 根据目的创建不同的虚拟环境,我默认base是py38,所以就不创建了,就直接在base上安装软件了。
    # 根据自己的module avail中显示的cuda版本,找对应的pytorch版本
    # https://pytorch.org/get-started/previous-versions/    
    conda create -n mmseg python=3.8   
    conda activate mmseg  
    
    # 安装torch                         
    pip3 install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118
    >|█████▏                          | 369.2 MB 607 kB/s eta 0:52:05
     |████████████████▍               | 1160.7 MB 31.4 MB/s eta 0:00:36
    # 下载速度很好!
    # 安装mmseg需要的包
    pip3 install openmim
    pip3 install mmengine
    # mmcv需要编译,需要gcc 5.4+的版本 module load gcc/8.3  
    pip3 install mmcv
    
    # 安装之后确认下版本
    pip show mmcv # Version: 2.0.1
    pip show mmengine # Version: 0.8.4
    
    # 还可以看见安装位置:
    Location: /data/run01/scw6886/.local/lib/python3.7/site-packages
    # 运行期间的,所以会话关闭之后就会消失。。
    
  4. 由于每次ssh连接到bash会话,都要重新手动安装一遍,很麻烦,所以也可以把你想要在开机时就执行的命令全都写到.bashrc文件中,可以启动时执行命令,关于这个文件的作用,可以自行搜索。
    • 但是也不一定每次都是要使用cuda,所以看自己选择吧,是每次连接时都要等差不多10分钟,但是不需要手动输入;还是每次都手动输入,可以根据任务是否需要使用cuda来选择不等待
    pip3 install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118
    pip3 install openmim
    pip3 install mmengine
    pip3 install mmcv
    
    
  5. 目录问题,
    • 默认ssh登录后位于家目录,home,用于存放用户环境设置等文件,不要在此目录下安装软件及存放文件,默认配额为1GB
    • 作业运行数据存放目录:~/run用于存放计算所需或者访问频次较高的数据,读写性能较好,请将计算时需要使用的数据存储到该目录下并在此目录进行计算

参考:

  • 北京超算云计算平台深度学习环境配置
  • Linux必备技能:轻松编辑bashrc配置文件!
  • 配置开机自启命令文件~/.bashrc、/etc/profile、/etc/bash.bashrc的异同(bashrc:Bash Run Commands)环境变量、~/.bash_profile

3.3 创建分支

# fetch,把upstream上最新的所有内容都拉到本地
# 但是注意,需要保证本地没有什么冲突,当前处在任意分支都没问题
git fetch upstream

在这里插入图片描述

然后就可以基于远程最新的dev-1.x来创建自己的开发分支了

git checkout -b SupportInverseFormLoss upstream/dev-1.x

3.4 执行官方repo的推理

根据:https://github.com/Qualcomm-AI-research/InverseForm

参考:

  • Nvidia Apex简介

3.5 自己写代码

主要参考的两个已有的loss是:

  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/losses/tversky_loss.py
  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/losses/cross_entropy_loss.py

1. 网络作为损失函数

  • Pytorch-DCGAN TUTORIAL
  • https://www.run.ai/guides/deep-learning-for-computer-vision/pytorch-gan
  • 对抗神经网络(二)——DCGAN

2. XXX.cuda()

  • Using CUDA with pytorch?
  • How to run PyTorch on GPU by default?

3. XX_loss类的参数与config文件的对应关系
如下例子所示,损失函数的参数就是config文件中部分的参数

class CrossEntropyLoss(nn.Module):
    def __init__(self,
                 use_sigmoid=False,
                 use_mask=False,
                 reduction='mean',
                 class_weight=None,
                 loss_weight=1.0,
                 loss_name='loss_ce',
                 avg_non_ignore=False):

loss_decode=dict(  # Config of loss function for the decode_head.
            type='CrossEntropyLoss',  # Type of loss used for segmentation.
            use_sigmoid=False,  # Whether use sigmoid activation for segmentation.
            loss_weight=1.0)),  # Loss weight of decode_head.
  • mmsegmentation/mmseg/models/losses/cross_entropy_loss.py
  • https://mmsegmentation.readthedocs.io/en/latest/user_guides/1_config.html

4. 函数的一些默认值设置

  • 这里用的是Cityscapes数据集,所以基本都是针对这个数据集进行的设置
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/utils/config.py#L223

5. upper_bound参数

  • boundaryloss:Boundary loss for highly unbalanced segmentation

在这里插入图片描述

  • 『paddle』paddleseg 学习笔记:损失函数

  • PaddleSeg/paddleseg/models/losses/decoupledsegnet_relax_boundary_loss.py
  • OHEM: Training Region-based Object Detectors with Online Hard Example Mining
  • https://mmsegmentation.readthedocs.io/en/latest/advanced_guides/training_tricks.html#online-hard-example-mining-ohem
@manager.LOSSES.add_component
class RelaxBoundaryLoss(nn.Layer):
    """
    Implements the ohem cross entropy loss function.

    Args:
        border (int, optional): The value of border to relax. Default: 1.
        calculate_weights (bool, optional): Whether to calculate weights for every classes. Default: False.
        upper_bound (float, optional): The upper bound of weights if calculating weights for every classes. Default: 1.0.
        ignore_index (int64): Specifies a target value that is ignored
            and does not contribute to the input gradient. Default: 255.
    """

    def __init__(self,
                 border=1,
                 calculate_weights=False,
                 upper_bound=1.0,
                 ignore_index=255):
        super(RelaxBoundaryLoss, self).__init__()
        self.border = border
        self.calculate_weights = calculate_weights
        self.upper_bound = upper_bound
        self.ignore_index = ignore_index
        self.EPS = 1e-5
    def calculate_weights(self, label):
        hist = paddle.sum(label, axis=(1, 2)) * 1.0 / label.sum()
        hist = ((hist != 0) * self.upper_bound * (1 - hist)) + 1

6. torch.where()
https://pytorch.org/docs/stable/generated/torch.where.html

torch.where(edge.max(1)[0] > 0.8, target, filler)

>>> x = torch.randn(3, 2)
>>> y = torch.ones(3, 2)
>>> x
tensor([[-0.4620,  0.3139],
        [ 0.3898, -0.7197],
        [ 0.0478, -0.1657]])
>>> torch.where(x > 0, 1.0, 0.0)
tensor([[0., 1.],
        [1., 0.],
        [1., 0.]])
>>> torch.where(x > 0, x, y) # 满足条件的就用x的值,不满足的就用y的值
tensor([[ 1.0000,  0.3139],
        [ 0.3898,  1.0000],
        [ 0.0478,  1.0000]])

7. 预测的分割边界图来源- b p r e d b_{pred} bpred来源

论文中提到:
在这里插入图片描述
我们工作的主要不同点在于:推理时候不会引入额外开销,下面这个框架图已经很明显了说明问题了
在这里插入图片描述

  • 推理的时候关闭那个Boundary head,只使用上面的Segmentation head,只生成 y p r e d y_pred ypred就可以
  • 训练的时候才会使用Boundary head来生成 b p r e d b_{pred} bpred

在这里插入图片描述

  • 所以想要使用这个InverseFormLoss,是需要修改网络结构的
    在这里插入图片描述

8. 如何把InverseForm插入现有网络

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/ocrnet.py
  • https://github.com/NVIDIA/semantic-segmentation/blob/main/network/ocrnet.py

HRnet+OCR

  • https://arxiv.org/abs/1904.04514
  • https://github.com/HRNet/HRNet-Semantic-Segmentation/pulls
  • https://github.com/open-mmlab/mmsegmentation/tree/main/configs/ocrnet
  • https://github.com/open-mmlab/mmsegmentation/tree/main/configs/hrnet

9. 单元测试

  • https://github.com/open-mmlab/mmsegmentation/tree/main/tests/test_models/test_losses

10. 实现多头

  • mmpretrain-issue: multi task 多任务训练[Feature] #481
  • https://mmsegmentation.readthedocs.io/zh_CN/latest/advanced_guides/add_models.html#head
  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/decode_heads/ocr_head.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/ocrnet.py

11. bce2d和boundary_loss

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/loss/utils.py#L123C11-L123C11
  • 其实和这个是一样的:
    • https://github.com/CastleDream/mmsegmentation/blob/main/mmseg/models/losses/boundary_loss.py
    • 参考自:PIDNet https://github.com/XuJiacong/PIDNet/blob/main/utils/criterion.py#L122

有些写法上的区别:(重点关注,continuous的问题)

  • PyTorch 两大转置函数 transpose() 和 permute(), 以及RuntimeError: invalid argument 2: view size is not compati
  • Different between permute, transpose, view? Which should I use?
  • TORCH.TENSOR.VIEW

12. ImageBasedCrossEntropyLoss2d

  • semantic-segmentation/loss/utils.py,直接用的NVIDIA的这里的实现,也是页面搜索ImageBasedCrossEntropyLoss2d
  • https://gitee.com/mindspore/mindspore/issues/I55C9U,页面内搜索class ImageBasedCrossEntropyLoss2d,
    • 这个实现和这个github的repo是一样的:https://github.com/lxtGH/SFSegNets/blob/master/loss.py

3.6 报错 ImportError: cannot import name ‘InverseFormLoss’ from ‘mmseg.models.losses’

Traceback (most recent call last):
  File "../tests/test_models/test_losses/test_inverseform_loss.py", line 9, in <module>
    from mmseg.models.losses import InverseFormLoss
ImportError: cannot import name 'InverseFormLoss' from 'mmseg.models.losses' (mmsegmentation/mmseg/models/losses/__init__.py)
  • 这是因为默认from mmseg.models.losses import InverseFormLoss这句其实是引用的当前python环境中已经安装的mmsegmation其实是旧的,是之前安装的版本,不是你自己改动过的版本。
  • 因此,可以卸载这个版本,pip uninstall mmsegmentation
  • 然后把自己当前的这个mmsegmentation的文件夹的路径添加到python的系统路径中,具体如下:
    import sys
    sys.path.append('yourDir/mmsegmentation')
    # 一定要确定是把这个目录添加到系统目录之后,再去import刚刚ImportError的内容
    # 或者你可以直接把这个路径写到python的系统路径中,上面这种方式只是运行时生效
    from mmseg.models.losses import InverseFormLoss
    

我用的:

import sys
sys.path.append('/Users/huangshan/Documents/DailyStudy/mmsegmentation')
print(sys.path)

if __name__ == "__main__":
    test_inverseform_loss()

3.7 RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device(‘cpu’) to map your storages to the CPU.

根据pytest.raises Failed: DID NOT RAISE with try/except,只需要在模型加载的时候torch.load(path, map_location='cpu'),用map_location指明是cpu就行

3.8 pytest.raises Failed: DID NOT RAISE with try/except

 # Test loss forward with pred.shape!=target.shape
 pred_wrong = torch.zeros(2, 1, 4, 4)
 target_wrong = torch.zeros(3, 1, 4, 4)
 with pytest.raises(AssertionError):
     loss = loss_class(pred_wrong, target_wrong)
     print(loss)

这个pytest.raises(AssertionError)本身就是判断如果错了,会不会报错出来,所以with里面是可以抛出错误的代码

3.9 构建文档报错

在这里插入图片描述
在这里插入图片描述
https://docs.readthedocs.io/en/stable/config-file/v2.html#build-os

提交PR在测试的时候,第一次遇到构建文档报错。。。

这次写注释的时候,唯一的一个异常,就是某行超过72个字符的时候,把and换成了&,然后就出现了上面这个错误。。

改了之后,就没有了。

但是没有找到相关的资料,不确定真的是因为这个&符号,还是说可能刚刚测试环境坏了

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1060791.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

计算机网络(第8版)-第4章 网络层

4.1 网络层的几个重要概念 4.1.1 网络层提供的两种服务 如果主机&#xff08;即端系统&#xff09;进程之间需要进行可靠的通信&#xff0c;那么就由主机中的运输层负责&#xff08;包括差错处理、流量控制等&#xff09;。 4.1.2 网络层的两个层面 4.2 网际协议 IP 图4-4 网…

(四)正点原子STM32MP135移植——u-boot移植

一、概述 u-boot概述就不概述了&#xff0c;u-boot、kernel、dtb三件套&#xff0c;dddd 经过国庆艰苦奋战&#xff0c;已经成功把所有功能移植好了 二、编译官方代码 进入u-boot的目录 2.1 解压源码、打补丁 /* 解压源码 */ tar xf u-boot-stm32mp-v2022.10-stm32mp-r1-r0.…

zookeeper选举机制

全新集群选举 zookeeper 全新集群选举机制网上资料很多说法很模糊&#xff0c;仔细思考了一下&#xff0c;应该是这样 得到票数最多的机器>机器总数半数 具体启动过程中的哪个节点成为 leader 与 zoo.cfg 中配置的节点数有关&#xff0c;下面以3个举例 选举过程如下 server…

【Vue组件化编程】

Vue组件化编程 1 对组件的理解2 非单文件组件2.1 基本使用2.2 几个注意点2.3 组件的嵌套2.4 VueComponent构造函数2.5 一个重要的内置关系 3 单文件组件 1 对组件的理解 组件&#xff1a;实现应用中局部功能代码和资源的集合。优点&#xff1a;文件好维护&#xff1b;依赖关系不…

力扣 -- 96. 不同的二叉搜索树

解题步骤&#xff1a; 参考代码&#xff1a; class Solution { public:int numTrees(int n) {vector<int> dp(n1);//初始化dp[0]1;//填表for(int i1;i<n;i){for(int j1;j<i;j){//状态转移方程dp[i](dp[j-1]*dp[i-j]);}}//返回值return dp[n];} }; 你学会了吗&…

SpringBoot美食网站系统

采用技术:springbootvue 项目亲测可以完美运行

typscript开发环境搭建

typescript是基于javascript的强类型标记性语言&#xff0c;使用typescript语言可开发出不同规模的、易于扩展的web页面应用&#xff0c;本文主要描述typescript的开发环境搭建。 npm install -g typescript 如上所示&#xff0c;在本地开发环境中&#xff0c;使用nodejs运行…

苹果ios应用ipa文件签名为什么需要签名才能上架?有没有别的方式替代苹果签名?

近年来&#xff0c;苹果设备的普及程度逐渐加深&#xff0c;随之而来的是越来越多的应用程序涌入了苹果的应用商店。为了保障用户设备和数据的安全&#xff0c;以及减少恶意程序和恶意软件的传播&#xff0c;苹果公司实行了一套严格的应用安全机制&#xff0c;其中就包括应用程…

【现代机器人学】学习笔记十四:中文版印刷/翻译勘误

首先声明&#xff0c;这个印刷/勘误并非经过官方的认可&#xff0c;只是我个人的粗浅的理解。如果内容有误&#xff0c;恳请大家谅解指正。 其实有的并不算错&#xff0c;只是我个人认为不太准确&#xff0c;在我学习过程中产生了一些小疑惑和误解。 都是一些小毛病&#xff…

2024级199管理类联考之数学基础(下篇)

平面几何(平均2题) 三角形(性质、特殊三角形、全等与相似) 性质 由不在同一直线的三条线段首尾依次连接所组成的图形三条边、三个内角、三个定点三角形内角和为180度,外角和为360度,多边形的外角和为360度,n多边形的内角和为(n-2)*180度一个外角等于不相邻的两个内角之和任意…

NXP公司K60N512+PWM控制BLDC电机

本篇文章介绍了使用NXP公司提供的塔式快速原型系统来驱动控制带霍尔传感器的无刷直流电机。文章涉及的塔式快速原型系统主要包括以下四个独立板卡&#xff1a;1.塔式系统支撑模块&#xff08;TWR-Elevator&#xff09;&#xff0c;用以连接微控制器以及周边模块&#xff1b;2.低…

雷达编程实战之提高探测速度

有效帧频率作为雷达一个非常核心的指标&#xff0c;它代表了雷达探测识别的速度&#xff0c;速度越快&#xff0c;后级各项智能驾驶功能就能得到更快、更有效的判断。本篇文章首先从硬件的角度&#xff0c;提供了一种合理利用片上资源提高探测识别速度的常用方法&#xff0c;然…

qt 5.15.2 安卓 macos

macos环境安卓配置 我的系统是monterey12.5.1 打开qt的配置界面 这里版本是java1.8&#xff0c;注意修改这个json文件&#xff0c;显示包内容 {"common": {"sdk_tools_url": {"linux": "https://dl.google.com/android/repository/comm…

Boost程序库完全开发指南:1-开发环境和构建工具

Boost官方于2019年12月发布的1.72版编写&#xff0c;共包含160余个库/组件&#xff0c;涵盖字符串与文本处理、容器、迭代器、算法、图像处理、模板元编程、并发编程等多个领域&#xff0c;使用Boost&#xff0c;将大大增强C的功能和表现力。环境&#xff1a;Windows 10&#x…

JAVA学习(4)-全网最详细~

&#x1f308;write in front&#x1f308; &#x1f9f8;大家好&#xff0c;我是Aileen&#x1f9f8;.希望你看完之后&#xff0c;能对你有所帮助&#xff0c;不足请指正&#xff01;共同学习交流. &#x1f194;本文由Aileen_0v0&#x1f9f8; 原创 CSDN首发&#x1f412; 如…

vertx的学习总结6

Beyond the event bus 一、章节覆盖&#xff1a; 如何在事件总线之上公开服务 verticles和事件总线服务的异步测试 动态代理&#xff1a; MyService 接口 package porxy.test;import io.vertx.codegen.annotations.ProxyGen;ProxyGen public interface MyService {void he…

Linux学习之悟空派上实现OLED的无线网IP及CPU温度显示【守护进程】

起因 最近各种网购平台似乎都在推送99元的悟空派全志H3的开发板&#xff0c;出于好奇就买了一块来试试水&#xff0c;由于这块板子基本上和orangepi-Zero的硬件结构一模一样&#xff0c;所以设备树、boot这些就用orangepi现成的部件了。 因为本人比较喜欢使用SSH操作&#xff…

全志ARM926 Melis2.0系统的开发指引①

全志ARM926 Melis2.0系统的开发指引① 1. 编写目的2. Melis2.0 系统概述3. Melis2.0 快速开发3.1. Melis2.0 SDK 目录结构3.2. Melis2.0 编译环境3.3. Melis2.0 固件打包3.4. Melis2.0 固件烧录3.5.串口打印信息3.6. Melis2.0 添加和调用一个模块3.6.1. 为什么划分模块&#xf…

Sentinel-微服务保护

一、初识Sentinel 1、雪崩问题及解决方案 雪崩问题 微服务调用链路中的某个服务故障&#xff0c;引起整个链路中的所有微服务都不可用&#xff0c;这就是雪崩。 解决雪崩问题的常见方式有四种&#xff1a; 1、超时处理&#xff1a;设定超时时间&#xff0c;请求超过一定时间…