深度学习的量化和剪枝

news2024/9/23 9:28:42

一:背景

        如果要将深度学习的AI模型部署到受限设备(FPGA)上,往往需要更小的存储需求最低的计算复杂度。当然,还得保持一定的性能(下降在能够接受的范围)。受限设备资源的环境,一般是指的手机,嵌入式系统,而对于我目前的场景,主要是针对FPGA,但因为本文并不涉及具体硬件的实现,所以,完全不涉及FPGA领域知识。不管部署到哪种受限设备,要达到这种要求,最常见的方法就是 量化和剪枝了。

        对于FPGA,不好意思,我还得多说几句,因为有些情况它还是和其它硬件不太一样。它更擅长于定点数的运算(而不是浮点运算),原因是什么?因为FPGA由大量的基本逻辑单元组成。而这些逻辑单元(LUT 和触发器)非常适合于布尔逻辑和整数(定点数)运算。因为定点数的运算不涉及复杂的位移和归一化操作,逻辑实现直接,资源利用率高。而对于FPGA中配置的DSP,它通常也会优化用于执点定点数运算。如果一定要执行浮点运算,那么浮点数的归一化,舍入,溢出检测等复杂操作,会显著增加FPGA的资源消耗和功耗。低功耗是FPGA中非常关键的一环。另外,对于FPGA的应用场景,经常是需要高效的实时计算。如果运算过于复杂,必须无法满足实时性的要求。而且需要更多的资源

二:概念

        那什么是量化,什么是剪枝呢?

2.1:模量化(Quantization)

定义:模型量化是通过减少模型中参数的表示精度来实现模型压缩的过程。通常,神经网络模型中的参数是使用浮点数表示的,而量化则将这些参数表示为更少比特的定点数或整数,从而减小了内存占用和计算成本。

目标:减小模型的存储空间和加速推理过程。通过使用较少位数的表示来存储权重和激活值,模型的存储需求减少,且在硬件上执行推理时,可以更快地进行计算。

2.2:剪枝(Pruning)

定义:剪枝是一种技术,通过减少神经网络中的连接或参数来减小模型的大小。在剪枝过程中,通过将权重较小或对模型贡献较小的连接移除或设为零,从而减少模型的复杂度。

目标:减小模型的尺寸和计算负载。剪枝不仅可以减少模型的存储需求,还可以在推理时减少乘法操作,因为移除了部分连接或参数,从而提高推理速度。

2.3:对比

虽然两者都致力于减小模型的大小和计算复杂度,但方法和实现方式略有不同。模型量化侧重于减小参数表示的精度,而剪枝则专注于减少模型的连接或参数数量。通常,这两种技术可以结合使用,以更大程度地减小神经网络模型的尺寸和提高推理效率。

三:量化

3.1:量化的作用

我们再具体说一下量化的效果。

1:更少的存储开销和带宽需求。即使用更少的bit存储数据,有效减少应用对存储资源的依赖;

2:更快的计算速度。即对大多数处理器而言,整型运算(定点运算)的速度一般(但不总是)要比浮点运算更快一些;

举例:int8 量化可减少 75% 的模型大小(相比于F32),int8 量化模型大小一般为 32 位浮点模型大小的 1/4 加快推理速度,访问一次 32 位浮点型可以访问四次 int8 整型,整型运算比浮点型运算更快;

3.2:量化的方法

3.2.1:动态量化(Dynamic Quantization)

这是应用量化形式的最简单方法,其中权重提前量化,但激活在推理过程中动态量化。

动态量化 (Dynamic Quantization) 是一种在推理过程中将浮点数模型转换为低精度整数模型的量化技术。其主要目的是减少模型的内存占用和加速推理过程,同时尽量保持模型的精度。

  • 在动态量化中,模型的权重通常在推理之前就被量化,而激活函数的量化则是在推理过程中动态完成的。
  • 权重通常从浮点数 (如 float32) 量化为低精度整数 (如 int8)。
  • 激活值根据输入数据在推理过程中动态计算缩放因子,再将其量化为整数形式。
  • 通过动态量化,计算时使用低精度整数进行运算,然后在必要时将结果重新缩放回浮点格式。

动态量化的做法:

1. 模型权重的量化

  • 静态量化权重:模型权重在部署之前会被量化为 int8,这是静态量化的一部分。每个权重的量化操作通过 scalezero-point 完成:
    • int8_weight = (float32_weight / scale) + zero_point
  • 这里的 scalezero_point 是预先计算好的,用来确保权重在转换成 int8 后尽可能地保留其信息。

2. 激活函数的动态量化:

  • 动态量化激活:输入数据经过激活函数后,其输出在推理过程中动态量化。即:
    • 首先,根据输入数据计算 scalezero_point
    • 然后将激活值量化为 int8,并在后续运算中使用这个量化后的值。
  • 激活值在使用之前会被反量化为浮点数,进行最终的输出计算:
    • float32_activation = (int8_activation - zero_point) * scale

对于RNN和全连接层的运算(都是统一的矩阵乘法),可以很方便的使用动态量化,但是,对于CNN运算,

卷积运算的复杂性:卷积神经网络中的主要运算是卷积运算,而卷积运算的本质是对输入的局部区域和卷积核进行乘法和累加。这种操作的特点是涉及到复杂的内存访问模式和数据处理方式。

内存和计算模式的差异:与全连接层的矩阵乘法不同,卷积运算需要在输入张量的不同局部区域上滑动,并与卷积核做点积。动态量化在这种滑动窗口操作中,难以像在全连接层中那样简单直接地进行量化,因为卷积核和输入的动态范围可能随位置变化,不易统一处理。因为我们不太可能针对每次卷积都采用不同的scale和zero_point(这不适应于并行运算,运算量过大),如果采用更大的粒度,比如:通道,批次数据……,就会产生上面说的问题。

所以,对于CNN,不适合使用动态量化,我们一般采用另一种量化的方法,PTQ。

3.2.2:PTQ (PostTrain Quantity)

是一种常用于深度学习模型的量化方法,它通过在模型训练完成后进行量化,从而减少模型的存储需求和计算复杂度,同时尽量保持模型的推理性能。以下是对 PTQ 量化的详细说明,包括其原理、做法以及适用的场景。

PTQ 量化 的核心思想是在模型训练完成之后,将模型的权重和激活函数从高精度的浮点数(通常是 32 位浮点数,FP32)转换为低精度的整数格式(如 8 位整数,INT8)。这能够显著减少模型的存储大小和计算复杂度。

主要量化步骤

  • 权重量化:将模型的权重从浮点数格式转换为整数格式。
  • 激活函数量化:将模型推理过程中产生的激活值从浮点数转换为整数格式。
  • 缩放因子:为了在低精度格式下保持数值的动态范围,使用缩放因子(scale factor)来调整量化后的整数值,使其能够近似原始的浮点值。

PTQ 量化 一般包括以下步骤:

1. 模型训练

  • 原始模型训练:首先使用标准的浮点数精度(FP32)训练模型。此时模型在高精度环境下运行,并且不进行任何量化处理。

2. 采集校准数据

  • 收集校准数据:在模型训练完成后,使用一部分未见过的训练数据或验证数据来采集模型的激活分布。这些数据用于帮助模型计算权重和激活值的量化参数(如缩放因子)。

3. 量化权重和激活值

  • 量化权重:使用校准数据的统计信息,将模型的权重从浮点数(FP32)转换为整数(通常是 INT8)。这个过程可能涉及到缩放因子的计算和权重的离散化。
  • 量化激活值:类似于权重量化,将激活值也转换为整数。激活值的量化通常是动态的,即在每次推理时使用当前输入的数据动态计算量化参数。

4. 测试和评估

  • 推理测试:使用量化后的模型进行推理测试,评估模型的准确性、延迟和资源消耗。根据测试结果,可能需要调整量化策略或重新校准量化参数。

我们刚才提到了,对于CNN激活值的量化,可以使用PTQ,我们来看看实际的做法:

第一步:训练原始 CNN 模型

        首先,训练一个高精度的 CNN 模型,通常使用浮点数(FP32)进行训练。

第二步:收集校准数据

        使用一部分代表性的数据(校准数据集)来计算模型各层激活值的统计信息,包括最小值、最大值等。

第三步:确定量化参数

        根据校准数据,计算每一层激活函数的量化参数,如缩放因子(scale factor)和零点(zero-point)。

第四步:量化模型权重和激活函数

        将模型的权重和激活函数量化为整数格式(如 INT8),并将计算出的量化参数应用到推理过程中。

最后:评估和调整

        通过评估量化后的模型精度,进行必要的调整,以优化量化效果。

import torch
import torch.quantization
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader

# 示例CNN模型
class SimpleCNN(nn.Module):
    def __init__(self):
        super(SimpleCNN, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1)
        self.relu1 = nn.ReLU()
        self.conv2 = nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1)
        self.relu2 = nn.ReLU()
        self.fc1 = nn.Linear(64 * 28 * 28, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = self.conv1(x)
        x = self.relu1(x)
        x = self.conv2(x)
        x = self.relu2(x)
        x = x.view(x.size(0), -1)
        x = self.fc1(x)
        x = self.fc2(x)
        return x

# 1. 训练原始模型
model = SimpleCNN()
# 训练代码略,假设模型已经训练完成

# 2. 准备校准数据集
calibration_data_loader = DataLoader(...)  # 载入校准数据集

# 3. 准备模型进行量化
model.eval()
model.qconfig = torch.quantization.get_default_qconfig('fbgemm')

# 4. 融合模型中的卷积层和ReLU层
model_fused = torch.quantization.fuse_modules(model, [['conv1', 'relu1'], ['conv2', 'relu2']])

# 5. 将模型转换为量化模型
model_prepared = torch.quantization.prepare(model_fused)

# 6. 使用校准数据集进行量化校准
with torch.no_grad():
    for images, _ in calibration_data_loader:
        model_prepared(images)

# 7. 转换为量化后的模型
model_quantized = torch.quantization.convert(model_prepared)

# 8. 评估量化模型的精度
# 加载测试集进行模型评估

PTQ 的优势

  • 克服动态量化的不足:动态量化仅在推理时计算量化参数,这可能导致较大的量化误差,尤其是在激活值的分布范围变化较大的情况下。PTQ 通过提前使用校准数据来确定激活函数的量化参数,使得推理阶段的量化误差较小,模型精度更高。

  • 更精确的量化:通过校准数据的分析,PTQ 可以为每一层选择最适合的量化参数(如缩放因子和零点),从而在低精度下尽可能保留模型的原始性能。

3.2.3:QAT(Quantization-Aware Training,QAT)

        在传统的训练过程中,模型的权重和激活值通常以高精度的浮点数(如 32 位浮点数, FP32)存储和运算。然而,在推理阶段,特别是在资源受限的设备(如嵌入式设备、移动设备)上,使用高精度浮点数进行计算的开销较大。因此,通过量化将模型的权重和激活值从高精度(如 FP32)减少到低精度(如 8 位整数, INT8),可以显著降低模型的存储需求和计算复杂度。

        量化感知训练通过在训练阶段引入模拟量化的操作,使得模型在推理阶段以低精度运算时的性能尽可能接近高精度运算的效果。其核心思想是在训练时对模型进行“量化感知”,使得模型在训练过程中学习如何应对量化误差,从而在低精度运算下仍然能保持较好的性能。

QAT 在训练过程中通过以下步骤来实现:

  1. 模拟量化操作

    • 在前向传播时,模拟将浮点数(FP32)的权重和激活值量化为低精度整数(如 INT8)。这一过程通常包括对权重和激活值进行缩放、截断和映射到低精度整数范围。
    • 例如,假设一个神经网络的权重范围是 [-2.0, 2.0],则可以将其映射到 [0, 255] 的 8 位整数范围内。前向传播时,模型的权重和激活值会被模拟为这些整数值。
  2. 反向传播和梯度计算

    • 在反向传播时,尽管前向传播中使用了量化值,梯度的计算仍然在浮点精度下进行,以避免梯度信息的丢失。
    • 反向传播过程中,模型更新的是未量化的浮点数权重,但更新后的权重将在下一次前向传播时继续通过量化过程。
  3. 训练迭代

    • 训练过程迭代进行,通过模拟量化的训练过程,模型逐渐适应量化误差,并学会如何在低精度下保持性能
  4. 量化模型生成

    • 训练完成后,最终生成的模型权重被正式量化为低精度格式,以便在推理阶段直接使用。

QAT 主要适用于以下场景:

  1. 推理速度要求高的场景

    • 在需要快速响应的应用中(如实时视频处理、自动驾驶等),通过量化模型来加速推理过程是非常重要的。QAT 可以帮助减少计算延迟,同时保持模型的精度。
  2. 对精度要求高的应用

    • 对于一些精度敏感的应用,传统的后量化方法(Post-Training Quantization, PTQ)可能导致显著的精度下降。QAT 可以通过在训练中模拟量化误差来最大限度地保持模型精度,使其在推理时接近于浮点模型的性能。

   从理论上讲,QAT的效果会好于PTQ,但是,代价较高,一定要看对于性能的要求是否需要,来确定是否要使用QAT。

具体的实现代码, 我们以Pytorch为例,给出代码。

网络上有相应的教程:  Pytorch QAT 教程

Python
# create a model instance
model_fp32 = M()

# model must be set to train mode for QAT logic to work
model_fp32.train()

# attach a global qconfig, which contains information about what kind
# of observers to attach. Use 'fbgemm' for server inference and
# 'qnnpack' for mobile inference. Other quantization configurations such
# as selecting symmetric or assymetric quantization and MinMax or L2Norm
# calibration techniques can be specified here.
model_fp32.qconfig = torch.quantization.get_default_qat_qconfig('fbgemm')

# fuse the activations to preceding layers, where applicable
# this needs to be done manually depending on the model architecture
model_fp32_fused = torch.quantization.fuse_modules(model_fp32,
    [['conv', 'bn', 'relu']])

# Prepare the model for QAT. This inserts observers and fake_quants in
# the model that will observe weight and activation tensors during calibration.
model_fp32_prepared = torch.quantization.prepare_qat(model_fp32_fused)

# run the training loop (not shown)
training_loop(model_fp32_prepared)
3.2.4:何时需要反量化?

        注意,在动态量化和PTQ时,会提到有可能做反量化。反量化的做法很简单,但是为什么要做反量化呢?

        一般是在对精度要求较的场合,或者最终需要返回的值。我们可以有针对性的对某一些步骤进行反量化,提升性能。

四:剪枝

        剪枝分为结构化剪枝和非结构化剪枝。

4.1:非结构化剪枝:

        深度学习模型压缩的一种方法,它通过删除模型中不重要的个别权重来减少模型的规模和复杂度,同时尽量保持模型的准确性和性能。

        针对各个权重参数进行剪枝,形成不规则的稀疏结构。

原理:在深度神经网络中,通常存在大量的权重参数,但并非所有权重都对模型的最终输出有显著影响。非结构化剪枝的核心思想是通过识别和移除对模型性能贡献较小的权重,从而减少模型的参数量。将部分权重置0,

具体过程:

  • 计算每个权重的绝对值。
  • 基于阈值的剪枝:设定一个阈值,删除绝对值小于该阈值的权重。
  • 基于比例的剪枝:设定一个剪枝比例,例如剪除最小的 20% 权重。
  • 渐进式剪枝:逐步增加剪枝比例或降低阈值,以便模型逐步适应剪枝过程。

代码示例:

Python
parameters_to_prune = (  
    (model.conv1, 'weight'),  
    (model.conv2, 'weight'),  
    (model.fc1, 'weight'),  
    (model.fc2, 'weight'),  
    (model.fc3, 'weight'),  
)  
  
prune.global_unstructured(  
    parameters_to_prune,  
    pruning method=prune.L1Unstructured,  
    amount=0.2,  
) 

        剪枝操作会导致模型精度下降,因此通常需要对剪枝后的模型进行微调(Fine-tuning)。微调过程中,模型重新训练以适应被剪枝的结构,并尽量恢复因剪枝而丢失的精度。

4.2:结构化剪枝

        是一种深度学习模型压缩技术,通过移除模型中的特定结构(如整个卷积核、神经元、过滤器、通道等),来减少模型的计算复杂度和存储需求。与非结构化剪枝不同,结构化剪枝移除的是模型中的大块结构,而不是单个权重。

4.2.1:原理

        在深度神经网络中,某些卷积核、过滤器、神经元或通道的贡献较小,删除这些结构不会显著影响模型的性能。结构化剪枝通过评估这些结构的贡献度,将低贡献度的结构整体删除,从而简化模型。

  • 评估标准:结构化剪枝通常基于结构的重要性进行评估。重要性可以通过各种标准来衡量,例如基于权重的绝对值大小、特征图的激活值、梯度信息、或基于模型训练过程中的统计数据。

  • 剪枝对象:结构化剪枝的对象通常包括:

    • 卷积核:在卷积层中移除某些卷积核。
    • 过滤器:在卷积神经网络 (CNN) 中移除某些过滤器(即卷积核的输出通道)。
    • 神经元:在全连接层中移除某些神经元。
    • 通道:在卷积层中移除某些通道(即卷积层的输入或输出通道)。
4.2.2: 实施步骤

第一步:初始化模型

  • 首先,训练一个全尺寸的深度神经网络模型至收敛,确保其在完整结构下达到期望的性能。

第二步:评估结构重要性

  • 对模型中的各个结构(如过滤器、通道、神经元等)进行重要性评估。常用的方法包括:
    • 权重标准:评估每个结构的权重绝对值的平均值或平方和,较小值的结构被认为不重要。
    • 激活标准:评估每个结构的激活值(如特征图的均值或方差),较小激活值的结构被认为不重要。
    • 梯度标准:利用训练过程中计算的梯度来评估结构的重要性,较小梯度的结构被认为不重要。

第三步:剪枝

  • 根据评估结果,对模型中的不重要结构进行剪枝。例如,移除不重要的卷积核、过滤器或通道。

第四步:微调模型

  • 剪枝后,模型的性能通常会下降,因此需要对剪枝后的模型进行微调(Fine-tuning)。通过微调,模型可以适应被移除结构后的新形态,并尽可能恢复性能。

第五步:迭代剪枝

  • 可以多次重复剪枝和微调的过程,每次剪除一定比例的结构,直到模型达到预期的压缩效果或性能要求。
4.2.3:通道剪枝方法

一种通道剪枝方法:基于BN层中的缩放因子来对不重要的通道进行裁剪

  1. 在训练期间,通过对网络BN层的gamma系数施加L1正则约束,使得模型朝着结构性稀疏的方向调整参数
  2. 完成稀疏训练或者正则化之后,便可以按照既定的压缩比裁剪模型

具体过程:

训练模型->压缩模型->微调模型,这个过程可以多次进行

4.2.4:重复模块减化

        有一种很简单的做法,对于有重复多次调用的多层模块,进行简单的减少层数。这样往往是可以在不太大影响性能的情况下达成剪枝的效果。当然,这要结合不断的重训评估,来找到最合适的值,但原则上是不减少原有模型的处理,只是减少重复处理的次数。实测有效噢。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2050752.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

掌握ChatGPT写作艺术:从入门到精通的四个层次

这些周末我仔细研究了如何通过优化提示词提升ChatGPT输出内容的质量。 关于如何使用ChatGPT辅助我们的写作,我归纳了以下规律,希望能为你带来启发。 一、写作步骤 撰写一篇文章,思路上必须是从抽象到具体逐步深入。 首先我们需要明确写什么…

【数据结构与算法】冒泡排序

冒泡排序目录 一.冒泡排序原理二.图示三.冒泡排序具体实现四.冒泡排序升级版五.完整代码 一.冒泡排序原理 还是老样子,我们如何对这个进行排序呢? 冒泡排序的原理是,将两两进行比较,如果前面较大的我们就进行交换到后面. 然后再对交换后的这个和下一个进行比较,一轮过后,最大值…

spfa()算法(求最短路)

spfa算法是对bellman_ford算法的优化,大部分求最短路问题都可以用spaf算法来求。 注意: (1)如若图中有负权回路,不能用spfa算法,要用bellman_ford算法;若只有负权边,则可以用 spf…

Feign的基本使用

一、在项目中引入相关的依赖 创建两个微服务,分别为userservice、orderservice 现在需要在orderservie中查询用户相关的数据,所以需要使用feign进行远程调用userservice 1.1、在orderservice的pom.xml文件中添加下面的依赖 <dependency><groupId>org.springfram…

疫情居家办公系统--论文pf

TOC springboot394疫情居家办公系统--论文pf 第1章 绪论 1.1 课题背景 伴随着科技的进步&#xff0c;电子计算机已经成为人们日常生活不可或缺的办公工具。在这样的背景下&#xff0c;互联网技术被用于各个领域。为了能提高日常生活高效率&#xff0c;互联网信息技术性蓬勃…

Linux 网络套接字解析:实现网络通信

目录 一.网络基础1.协议2.OSI与TCP/IP模型3.网络通信流程4.IP与Mac地址 二.网络编程套接字1.端口号2.网络字节序3.tcp、udp协议4.socket编程5.sockaddr结构解析6.实现Udp_socket7.实现Windows与Linux通信8.Linux下远程执行指令9.实现tcp_socket10.守护进程 一.网络基础 1.协议…

IDEA中的 Maven 项目打包成Jar依赖,如何发布到本地仓库、远程仓库?

IDEA中的 Maven 项目打包成Jar依赖&#xff0c;如何发布到本地仓库、远程仓库&#xff1f; 默认读者都已经安装好 maven环境&#xff0c;如有不知道如何安装 maven 环境的&#xff0c;请先进行 maven 环境的安装学习教程&#xff01; 一、创建 maven 项目 按照图中方式&#xf…

python:画由两条抛物线所围成的图形

《高等数学》同济大学版 P338 编写 test_diff_2_area.py 如下 # -*- coding: utf-8 -*- """ 画由两条抛物线: ysqrt(x) , yx^2 所围成的图形的面积 """ import numpy as np import matplotlib.pyplot as plt from matplotlib.patches import…

[算法题]排序数组

题目链接: 排序数组 快速排序求解 两个重点: 1. 选取随机数做 key, 不止固定选最左边的数做 key, 避免在数据有序时退化成 O(n^2) 的时间复杂度, 取 key 下标公式: rand() % (end - begin 1) begin (加上begin偏移, 保证当前的 key 在当前的区间内) 2. 三段划分, 将区间划…

MySQL中处理JSON数据

​ 大家好&#xff0c;我是程序员小羊&#xff01; 前言 在大数据时代&#xff0c;处理和分析结构化与非结构化数据的能力对于企业的成功至关重要。MySQL作为一种广泛使用的关系型数据库管理系统&#xff08;RDBMS&#xff09;&#xff0c;在应对传统结构化数据方面表现出色。然…

【html+css 绚丽Loading】 - 000003 乾坤阴阳轮

前言&#xff1a;哈喽&#xff0c;大家好&#xff0c;今天给大家分享htmlcss 绚丽Loading&#xff01;并提供具体代码帮助大家深入理解&#xff0c;彻底掌握&#xff01;创作不易&#xff0c;如果能帮助到大家或者给大家一些灵感和启发&#xff0c;欢迎收藏关注哦 &#x1f495…

python基础篇(15):闭包

在函数嵌套的前提下&#xff0c;内部函数使用了外部函数的变量&#xff0c;并且外部函数返回了内部函数&#xff0c;我们把这个使用外部函数变量的内部函数称为闭包。 1 简单闭包 def outer(logo):def inner(msg):print(f"<{logo}>{msg}<{logo}>")retu…

yolov5网络初始化问题

当你打印detect层的三个特征层时&#xff0c;发现有三种不同的长和宽&#xff0c;如下图所示&#xff1a; 我提出三个问题&#xff1a; 为什么不一样呢&#xff0c;输入有什么含义吗&#xff1f; 为什么网络初始化四次&#xff08;forward)&#xff1f; 下面来逐个击破 1. torc…

LeetCode - LCR 146- 螺旋遍历二维数组

LCR 146题 题目描述&#xff1a; 给定一个二维数组 array&#xff0c;请返回「螺旋遍历」该数组的结果。 螺旋遍历&#xff1a;从左上角开始&#xff0c;按照 向右、向下、向左、向上 的顺序 依次 提取元素&#xff0c;然后再进入内部一层重复相同的步骤&#xff0c;直到提取完…

模型训练坎坷路--逐步提升模型准确率从40%到90%+

文章目录 〇、前言一、更改学习率1.原理&#xff1a;欠拟合需要减小学习率2.效果-->有用&#xff01; 二、更改训练批次batch_size1.原理&#xff1a;更大的批量大小时&#xff0c;梯度估计更加精确2.效果-->有点用 三、更改数据预处理方式1.原理&#xff1a;数据可能没有…

【微服务】springboot 整合表达式计算引擎 Aviator 使用详解

目录 一、前言 二、表达式计算框架概述 2.1 规则引擎 2.1.1 什么是规则引擎 2.1.2 规则引擎用途 2.1.3 规则引擎使用场景 2.2 表达式计算框架 2.2.1 表达式计算框架定义 2.2.2 表达式计算框架特点 2.2.3 表达式计算框架应用场景 2.3 表达式计算框架与规则引擎异同点 …

二叉树练习习题集一(Java)

1. 思路&#xff1a; 就是让左孩子和右孩子进行交换&#xff0c;这里需要一个中间变量用来记录&#xff0c;然后完成交换。如果进行优化则添加当左孩子和右孩子都为null时直接返回。 class Solution {public TreeNode invertTree(TreeNode root) {TreeNode tmpnull;//用来进行…

C++适配windows和linux下网络编程TCP简单案例

C网络编程 网络协议是计算机网络中通信双方必须遵循的一套规则和约定&#xff0c;用于实现数据的传输、处理和控制。这些规则包括了数据格式、数据交换顺序、数据处理方式、错误检测和纠正等。网络协议是使不同类型的计算机和网络设备能够相互通信的基础&#xff0c;是网络通信…

PDF转markdown工具:magic-pdf

1. magic-pdf 环境安装 conda create -n MinerU python3.10 conda activate MinerU pip install boto3>1.28.43 -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip install magic-pdf[full]0.7.0b1 --extra-index-url https://wheels.myhloli.com -i https://pypi.tuna.t…

SSA-SVM多变量回归预测|樽海鞘群优化算法-支持向量机|Matalb

目录 一、程序及算法内容介绍&#xff1a; 基本内容&#xff1a; 亮点与优势&#xff1a; 二、实际运行效果&#xff1a; 三、算法介绍&#xff1a; 四、完整程序下载&#xff1a; 一、程序及算法内容介绍&#xff1a; 基本内容&#xff1a; 本代码基于Matlab平台编译&a…