【YOLOv5改进系列(2)】高效涨点----Wise-IoU详细解读及使用Wise-IoU(WIOU)替换CIOU

news2025/1/18 8:57:45

在这里插入图片描述


WIOU损失函数替换

  • 🚀🚀🚀前言
  • 一、1️⃣ Wise-IoU解读---基于动态非单调聚焦机制的边界框损失
    • 1.1 🎓 介绍
    • 1.2 ✨WIOU解决的问题
    • 1.3 ⭐️论文实验结果
    • 1.4 🎯论文方法
      • 1.4.1☀️Wise-IoU v1
      • 1.4.2☀️Wise-IoU v2
      • 1.4.3☀️Wise-IoU v3
  • 二、2️⃣如何添加WIOU损失函数
    • 2.1 🎓 修改bbox_iou函数
    • 2.2 ✨修改__call__中iou函数
  • 三、3️⃣实验测试结果


在这里插入图片描述

👀🎉📜系列文章目录

【yolov5-v6.0详细解读】
【目标检测—IOU计算详细解读(IoU、GIoU、DIoU、CIoU、EIOU、Focal-EIOU、SIOU、WIOU)】
【YOLOv5改进系列(1)】高效涨点----使用EIoU、Alpha-IoU、SIoU、Focal-EIOU替换CIou

🚀🚀🚀前言

在上一篇文章使用了EIoU、Alpha-IoU、SIoU、Focal-EIOU替换yolov5中默认的CIou损失,发现Focal-EIOU对于钢轨表面缺陷识别的提升效果最好,将map@0.5提升到了81.1%,这节使用Wise-IoU的三个版本(分别是v1、v2、v3)去替换CIOU损失,来观察不同类别的map@0.5变化。其中使用Wise-IoU v1方法将钢轨表面缺陷数据集map@50从77.9%提升到了86.3%,将近提升了10个百分点


一、1️⃣ Wise-IoU解读—基于动态非单调聚焦机制的边界框损失

1.1 🎓 介绍

📜该论文是2023年8月发表在arXiv上;
论文连接:Wise-IoU: Bounding Box Regression Loss with Dynamic Focusing Mechanism

🚀目标检测作为计算机视觉的核心问题,其检测性能依赖于损失函数的设计。边界框损失函数作为目标检测损失函数的重要组成部分,其良好的定义将为目标检测模型带来显著的性能提升。近年来的研究大多假设训练数据中的示例有较高的质量,致力于强化边界框损失的拟合能力。但我们注意到目标检测训练集中含有低质量示例,如果一味地强化边界框对低质量示例的回归,显然会危害模型检测性能的提升。Focal-EIoU v1 被提出以解决这个问题,但由于其聚焦机制是静态的,并未充分挖掘非单调聚焦机制的潜能。

⭐️基于这个观点,我们提出了动态非单调的聚焦机制,设计了 Wise-IoU (WIoU)。动态非单调聚焦机制使用“离群度”替代 IoU 对锚框进行质量评估,并提供了明智的梯度增益分配策略。该策略在降低高质量锚框的竞争力的同时,也减小了低质量示例产生的有害梯度。这使得 WIoU 可以聚焦于普通质量的锚框,并提高检测器的整体性能。将WIoU应用于最先进的单级检测器 YOLOv7 时,在 MS-COCO 数据集上的 AP-75 从 53.03% 提升到 54.50%

目前的Wise-IoU一共有三个版本分别是v1、v2、v3=

1.2 ✨WIOU解决的问题

🔥在数据标准的过程中,存在一下物体标准的不够正确,会有一些目标物体标注的质量很差,如下:
在这里插入图片描述
一个性能良好的模型在为低质量示例生成高质量锚框时会产生较大的 L I o U \mathcal{L}_{I o U} LIoU(iou损失)。如果单调 FM 为这些锚框分配较大的梯度增益,则模型的学习将受到损害。

在性能提升上,数据集的标注质量越差 (当然差到一定程度就不叫数据集了),WIoU 相对其它边界框损失的表现越好。

1.3 ⭐️论文实验结果

☀️CIoU、SIoU 的 v2 使用和 WIoU v2 一致的单调聚焦机制,v3 使用和 WIoU v3 一致的动态非单调聚焦机制,详见论文的消融实验,在计算速度上,WIoU 所增加的计算成本主要在于聚焦系数的计算、IoU 损失的均值统计。在实验条件相同时,WIoU 因为没有对纵横比进行计算反而有更快的速度,WIoU 的计算耗时为 CIoU 的 87.2%。

对比CIOU和SIOU等方法,WIOU的AP50要优于之前的边界框损失。
在这里插入图片描述

1.4 🎯论文方法

🚀该本文所涉及的聚焦机制有以下几种:

  • 静态:当边界框的 IoU 为某一指定值时有最高的梯度增益,如 Focal EIoU v1
  • 动态:享有最高梯度增益的边界框的条件处于动态变化中,如 WIoU v3
  • 单调:梯度增益随损失值的增加而单调增加,如 Focal loss
  • 非单调:梯度增益随损失值的增加呈非单调变化

WIoU v1 构造了基于注意力的边界框损失,WIoU v2 和 v3 则是在此基础上通过构造梯度增益 (聚焦系数) 的计算方法来附加聚焦机制。

1.4.1☀️Wise-IoU v1

由于训练数据不可避免地包含低质量示例,距离长宽比等几何因素会加剧对低质量示例的惩罚,从而降低模型的泛化性能。一个好的损失函数应该在锚框与目标框重合良好时削弱几何因素的惩罚,并且较少的训练干预将使模型获得更好的泛化能力。基于此,我们构建距离注意力,并获得具有两层注意力机制的WIoU v1:

  • R W  IoU  ∈ [ 1 , e ) \mathcal{R}_{W \text { IoU }} \in[1, e) RW IoU [1,e) :显著放大普通质量锚框的 L I o U \mathcal{L}_{I o U} LIoU
  • L I o U ∈ [ 0 , 1 ] \mathcal{L}_{I o U} \in[0,1] LIoU[0,1]:显着降低高质量anchor box的RWIoU,并且当anchor box与目标框重合良好时,它更注重中心点之间的距离。

L W I o U v 1 = R W I o U L I o U R W I o U = exp ⁡ ( ( x − x g t ) 2 + ( y − y g t ) 2 ( W g 2 + H g 2 ) ∗ ) \begin{aligned}&\mathcal{L}_{WIoUv1}=\mathcal{R}_{WIoU}\mathcal{L}_{IoU}\\&\mathcal{R}_{WIoU}=\exp(\frac{(x-x_{gt})^2+(y-y_{gt})^2}{(W_g^2+H_g^2)^*})\end{aligned} LWIoUv1=RWIoULIoURWIoU=exp((Wg2+Hg2)(xxgt)2+(yygt)2)

其中,Wg,Hg是最小的封闭框的大小。为了防止RWIoU产生阻碍收敛的梯度,Wg,Hg从计算图中分离出来(上标∗表示此操作)。因为它有效地消除了阻碍收敛的因素,所以没有引入新的度量,比如宽高比。
在这里插入图片描述

1.4.2☀️Wise-IoU v2

🚀Focal Loss 设计了一种针对交叉熵的单调聚焦机制,有效降低了简单示例对损失值的贡献。这使得模型能够聚焦于困难示例,获得分类性能的提升。该论文类似地构造了单调聚焦系数 L I o U γ ∗ \mathcal{L}_{IoU}^{\gamma*} LIoUγ L W I o U v 1 \mathcal{L}_{WIoUv1} LWIoUv1
L W I o U v 2 = L I o U γ ∗ L W I o U v 1 , γ > 0 \mathcal{L}_{WIoUv2}=\mathcal{L}_{IoU}^{\gamma*}\mathcal{L}_{WIoUv1},\gamma>0 LWIoUv2=LIoUγLWIoUv1,γ>0

由于增加了聚焦系数,WIoU v2反向传播的梯度也发生了变化:
∂ L W I o U v 2 ∂ L I o U = L I o U γ ∗ ∂ L W I o U v 1 ∂ L I o U , γ > 0 \frac{\partial\mathcal{L}_{WIoUv2}}{\partial\mathcal{L}_{IoU}}=\mathcal{L}_{IoU}^{\gamma*}\frac{\partial\mathcal{L}_{WIoUv1}}{\partial\mathcal{L}_{IoU}},\gamma>0 LIoULWIoUv2=LIoUγLIoULWIoUv1,γ>0

❗️注意,梯度增益为 r = L I o U γ ∗ ∈ [ 0 , 1 ] r=\mathcal{L}_{IoU}^{\gamma*}\in[0,1] r=LIoUγ[0,1]。在模型训练过程中,梯度增益随着 L I o U \mathcal{L}_{I o U} LIoU的减小而减小,导致训练后期收敛速度较慢。因此,引入 L I o U \mathcal{L}_{I o U} LIoU均值作为归一化因子:
L W I o U v 2 = ( L I o U ∗ L I o U ‾ ) γ L W I o U v 1 \mathcal{L}_{WIoUv2}=(\frac{\mathcal{L}_{IoU}^*}{\overline{\mathcal{L}_{IoU}}})^\gamma\mathcal{L}_{WIoUv1} LWIoUv2=(LIoULIoU)γLWIoUv1

🔥其中 L I o U ‾ \overline{{\mathcal{L}_{IoU}}} LIoU是具有动量m的指数移动平均值。动态更新归一化因子使梯度增益 r = ( L I o U ∗ L I o U ‾ ) γ r=(\frac{\mathcal{L}_{IoU}^{*}}{\overline{\mathcal{L}_{IoU}}})^{\gamma} r=(LIoULIoU)γ总体保持在高水平,这解决了训练后期收敛缓慢的问题。

1.4.3☀️Wise-IoU v3

动态非单调FM:锚框的离群度用 L I o U \mathcal{L}_{I o U} LIoU L I o U ‾ \overline{{\mathcal{L}_{IoU}}} LIoU的比值表示:
在这里插入图片描述

🚀离群值小意味着锚框是高质量的。我们为其分配一个小的梯度增益,以便将== BBR (边界框回归)==集中在普通质量的锚框上。此外,为异常值较大的锚框分配较小的梯度增益将有效防止低质量示例产生较大的有害梯度。我们使用 β 构造一个非单调聚焦系数并将其应用于 WIoU v1:
在这里插入图片描述

离群度β梯度增益r的映射,由超参数α、δ控制。不同的超参数可能适用于不同的模型和数据集,需要自行调整 _scaled_loss 的缺省值以找到最优解。

在这里插入图片描述
其中,当 β = δ 时,δ 使得 r = 1。如图所示,当锚框的离群度满足β=C(C为常数值)时,锚框将享有最高的梯度增益。由于 L I o U \mathcal{L}_{I o U} LIoU是动态的,因此锚框的质量划分标准也是动态的,这使得 WIoU v3 能够在每一个时刻做出最符合当前情况的梯度增益分配策略。

二、2️⃣如何添加WIOU损失函数

2.1 🎓 修改bbox_iou函数

📌首先找到utils文件夹下的metrics.py文件,然后找到该python文件下的bbox_iou函数

在这里插入图片描述

📌然后将原始的bbox_iou函数代码注释掉,替换成如下代码,分别是WIoU_Scale类和bbox_iou函数,其中WIoU_Scale类是相关配置参数,需要注意monotonous这个参数,当其设置不同参数所表示的WIoU的不同版本

  • monotonous =None:表示Wise-IoU v1
  • monotonous =True:表示Wise-IoU v2
  • monotonous =False:表示Wise-IoU v3
class WIoU_Scale:
    ''' monotonous: {
            None: origin v1
            True: monotonic FM v2
            False: non-monotonic FM v3
        }
        momentum: The momentum of running mean'''
    
    iou_mean = 1.
    monotonous = False
    _momentum = 1 - 0.5 ** (1 / 7000)
    _is_train = True
 
    def __init__(self, iou):
        self.iou = iou
        self._update(self)
    
    @classmethod
    def _update(cls, self):
        if cls._is_train: cls.iou_mean = (1 - cls._momentum) * cls.iou_mean + \
                                         cls._momentum * self.iou.detach().mean().item()
    
    @classmethod
    def _scaled_loss(cls, self, gamma=1.9, delta=3):
        if isinstance(self.monotonous, bool):
            if self.monotonous:
                return (self.iou.detach() / self.iou_mean).sqrt()
            else:
                beta = self.iou.detach() / self.iou_mean
                alpha = delta * torch.pow(gamma, beta - delta)
                return beta / alpha
        return 1
    
 
def bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False, SIoU=False, EIoU=False, WIoU=False, Focal=False, alpha=1, gamma=0.5, scale=False, eps=1e-7):
    # Returns Intersection over Union (IoU) of box1(1,4) to box2(n,4)
 
    # Get the coordinates of bounding boxes
    if xywh:  # transform from xywh to xyxy
        (x1, y1, w1, h1), (x2, y2, w2, h2) = box1.chunk(4, -1), box2.chunk(4, -1)
        w1_, h1_, w2_, h2_ = w1 / 2, h1 / 2, w2 / 2, h2 / 2
        b1_x1, b1_x2, b1_y1, b1_y2 = x1 - w1_, x1 + w1_, y1 - h1_, y1 + h1_
        b2_x1, b2_x2, b2_y1, b2_y2 = x2 - w2_, x2 + w2_, y2 - h2_, y2 + h2_
    else:  # x1, y1, x2, y2 = box1
        b1_x1, b1_y1, b1_x2, b1_y2 = box1.chunk(4, -1)
        b2_x1, b2_y1, b2_x2, b2_y2 = box2.chunk(4, -1)
        w1, h1 = b1_x2 - b1_x1, (b1_y2 - b1_y1).clamp(eps)
        w2, h2 = b2_x2 - b2_x1, (b2_y2 - b2_y1).clamp(eps)
 
    # Intersection area
    inter = (b1_x2.minimum(b2_x2) - b1_x1.maximum(b2_x1)).clamp(0) * \
            (b1_y2.minimum(b2_y2) - b1_y1.maximum(b2_y1)).clamp(0)
 
    # Union Area
    union = w1 * h1 + w2 * h2 - inter + eps
    if scale:
        self = WIoU_Scale(1 - (inter / union))
 
    # IoU
    # iou = inter / union # ori iou
    iou = torch.pow(inter/(union + eps), alpha) # alpha iou
    if CIoU or DIoU or GIoU or EIoU or SIoU or WIoU:
        cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1)  # convex (smallest enclosing box) width
        ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1)  # convex height
        if CIoU or DIoU or EIoU or SIoU or WIoU:  # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1
            c2 = (cw ** 2 + ch ** 2) ** alpha + eps  # convex diagonal squared
            rho2 = (((b2_x1 + b2_x2 - b1_x1 - b1_x2) ** 2 + (b2_y1 + b2_y2 - b1_y1 - b1_y2) ** 2) / 4) ** alpha  # center dist ** 2
            if CIoU:  # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47
                v = (4 / math.pi ** 2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2)
                with torch.no_grad():
                    alpha_ciou = v / (v - iou + (1 + eps))
                if Focal:
                    return iou - (rho2 / c2 + torch.pow(v * alpha_ciou + eps, alpha)), torch.pow(inter/(union + eps), gamma)  # Focal_CIoU
                else:
                    return iou - (rho2 / c2 + torch.pow(v * alpha_ciou + eps, alpha))  # CIoU
            elif EIoU:
                rho_w2 = ((b2_x2 - b2_x1) - (b1_x2 - b1_x1)) ** 2
                rho_h2 = ((b2_y2 - b2_y1) - (b1_y2 - b1_y1)) ** 2
                cw2 = torch.pow(cw ** 2 + eps, alpha)
                ch2 = torch.pow(ch ** 2 + eps, alpha)
                if Focal:
                    return iou - (rho2 / c2 + rho_w2 / cw2 + rho_h2 / ch2), torch.pow(inter/(union + eps), gamma) # Focal_EIou
                else:
                    return iou - (rho2 / c2 + rho_w2 / cw2 + rho_h2 / ch2) # EIou
            elif SIoU:
                # SIoU Loss https://arxiv.org/pdf/2205.12740.pdf
                s_cw = (b2_x1 + b2_x2 - b1_x1 - b1_x2) * 0.5 + eps
                s_ch = (b2_y1 + b2_y2 - b1_y1 - b1_y2) * 0.5 + eps
                sigma = torch.pow(s_cw ** 2 + s_ch ** 2, 0.5)
                sin_alpha_1 = torch.abs(s_cw) / sigma
                sin_alpha_2 = torch.abs(s_ch) / sigma
                threshold = pow(2, 0.5) / 2
                sin_alpha = torch.where(sin_alpha_1 > threshold, sin_alpha_2, sin_alpha_1)
                angle_cost = torch.cos(torch.arcsin(sin_alpha) * 2 - math.pi / 2)
                rho_x = (s_cw / cw) ** 2
                rho_y = (s_ch / ch) ** 2
                gamma = angle_cost - 2
                distance_cost = 2 - torch.exp(gamma * rho_x) - torch.exp(gamma * rho_y)
                omiga_w = torch.abs(w1 - w2) / torch.max(w1, w2)
                omiga_h = torch.abs(h1 - h2) / torch.max(h1, h2)
                shape_cost = torch.pow(1 - torch.exp(-1 * omiga_w), 4) + torch.pow(1 - torch.exp(-1 * omiga_h), 4)
                if Focal:
                    return iou - torch.pow(0.5 * (distance_cost + shape_cost) + eps, alpha), torch.pow(inter/(union + eps), gamma) # Focal_SIou
                else:
                    return iou - torch.pow(0.5 * (distance_cost + shape_cost) + eps, alpha) # SIou
            elif WIoU:
                if Focal:
                    raise RuntimeError("WIoU do not support Focal.")
                elif scale:
                    return getattr(WIoU_Scale, '_scaled_loss')(self), (1 - iou) * torch.exp((rho2 / c2)), iou # WIoU https://arxiv.org/abs/2301.10051
                else:
                    return iou, torch.exp((rho2 / c2)) # WIoU v1
            if Focal:
                return iou - rho2 / c2, torch.pow(inter/(union + eps), gamma)  # Focal_DIoU
            else:
                return iou - rho2 / c2  # DIoU
        c_area = cw * ch + eps  # convex area
        if Focal:
            return iou - torch.pow((c_area - union) / c_area + eps, alpha), torch.pow(inter/(union + eps), gamma)  # Focal_GIoU https://arxiv.org/pdf/1902.09630.pdf
        else:
            return iou - torch.pow((c_area - union) / c_area + eps, alpha)  # GIoU https://arxiv.org/pdf/1902.09630.pdf
    if Focal:
        return iou, torch.pow(inter/(union + eps), gamma)  # Focal_IoU
    else:
        return iou  # IoU

🔥温馨提示WIOU和Focal不能同时使用,两者是互斥的,所以不能使用Focal项,在代码中也体现出来。

在这里插入图片描述

2.2 ✨修改__call__中iou函数

📌找到utils文件夹下面的loss.py损失函数计算文件,在该文件中找到ComputeLoss类下面的__call__函数,在__call__()函数里面找到红框部分的代码。

在这里插入图片描述

📌将红框内容替换成如下代码:

# ============替换WIoU之后的代码====================
iou = bbox_iou(pbox, tbox[i], WIoU=True, scale=True)
if type(iou) is tuple:
    if len(iou) == 2:
        lbox += (iou[1].detach().squeeze() * (1 - iou[0].squeeze())).mean()
        iou = iou[0].squeeze()
    else:
        lbox += (iou[0] * iou[1]).mean()
        iou = iou[2].squeeze()
else:
    lbox += (1.0 - iou.squeeze()).mean()  # iou loss
    iou = iou.squeeze()

# ==============================================

❗️注意:scale需要设置为True,它是wiou中的一个缩放参数

三、3️⃣实验测试结果

🚀 这里一共做了三次实验,分别是Wise-IoU v1、Wise-IoU v2、Wise-IoU v3三个不同版本方法训练钢轨表面疵点的结果。

原始CIOU实验结果
F1置信度分数为0.71、map@0.5=0.779
在这里插入图片描述
Wise-IoU v1实验结果
F1置信度分数为0.72、map@0.5=0.863,F1置信度分数变化不大,但是map值增加最多
在这里插入图片描述
Wise-IoU v2实验结果
F1置信度分数为0.76、map@0.5=0.841,虽然map值没有 v1提升的那么大,但是F1置信度分数增长最多
在这里插入图片描述
Wise-IoU v3实验结果
F1置信度分数为0.74、map@0.5=0.844。
在这里插入图片描述
总结
🚀 不管是Wise-IoU 哪一个版本,对于数据集的精确度、召回率、map值等指标都有所提升。

在这里插入图片描述


在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1530198.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

PySpark案例实战

一、前言介绍 二、基础准备 # 导包 from pyspark import SparkConf,SparkContext #创建SparkConf类对象 confSparkConf().setMaster("local[*]").setAppName("test_spark_app") #基于SparkXConf类对象创建SparkContext对象 scSparkContext(confconf) #打印…

在线播放视频网站源码系统 带完整的安装代码包以及搭建教程

在线播放视频网站源码系统的开发,源于对当前视频市场的深入洞察和用户需求的精准把握。随着视频内容的爆炸式增长,用户对视频播放的需求也日益多样化。他们希望能够随时随地观看自己感兴趣的视频内容,同时还希望能够在观看过程中享受到流畅、…

Go语言学习13-常见软件架构的实现

Go语言学习13-常见软件架构的实现 架构模式 An architectural pattern is a general, reusable solution to a commonly occurring problem in software architectural within a given context. ——wikipedia Pipe-Filter 架构 Pipe-Filter 模式 非常适合于数据处理及数据分…

【理解机器学习算法】之分类问题的模型评估(ROC-AUC)

ROC曲线(接收者操作特性曲线)和AUC(曲线下面积)是在不同阈值设置下,用于分类问题的性能度量工具。下面是它们所代表的含义以及使用方法: ROC曲线 代表含义:ROC曲线是一个图形化的表示&#xf…

UE5拷贝复制快捷键修改Ctrl+w

UE5默认修改了原来的Ctrl w的快捷键方式,改成Ctrl D 非常不习惯 其实可以在编辑器中进行修改快捷键的 位置在 Editor Preferences ,搜索 Duplicate, 在其中的command selection中,修改 按键为Ctrl w 如图所示; …

[蓝桥杯 2023 省 B] 飞机降落(暴搜DFS+贪心)

总结:为什么你看到题想不出来怎么写呢,我想不到这道题还会用到dfs的思想,顶多能知道可能会有贪心,还是得多做题。 这道题让我想起来导弹拦截和借教室,记得有空做做!!不要研究难题,把…

图书馆管理系统 1.架构项目以及加搭建项目

项目架构图 技术栈 后端 开发语言:java 开发环境:jdk11.0.12 开发工具:IntelliJ IDEA 2022.2.4 项目管理工具:maven 集成框架:springboot 权限控制框架:springSecurity 数据库:mysql 数据库框架…

R语言:microeco:一个用于微生物群落生态学数据挖掘的R包,第八:trans_func class

# 生态学研究人员通常对微生物群落的功能特征感兴趣,因为功能或代谢数据对于解释微生物群落的结构和动态以及推断其潜在机制是强有力的。 # 由于宏基因组测序复杂且昂贵,利用扩增子测序数据预测功能谱是一个很好的选择。 # 有几个软件经常用于此目标&…

【python】Anaconda安装后打不开jupyter notebook(网页不自动跳出)

文章目录 一、遇到的问题:jupyter notebook网页不自动跳出(一)输入jupyter notebook命令(二)手动打开网页 二、解决办法:指定浏览器(一)找文件 jupyter_notebook_config.py&#xff…

Cookie、Session、Token详解及基于JWT的Token实现的用户登陆身份认证

目录 前置知识 Cookie 什么是Cookie Cookie的作用 Cookie的声命周期 Session 什么是Session 服务集群下Session存在的问题 集群模式下Session无法共享问题的解决 Cookie和Session的对比 Token 什么是Token 为什么产生Token 基于JWT的Token认证机制 Token的优势 …

JavaScript初学心得

JavaScript JavaScript原名是livescript,是由美国网景开发的一种用于对网页操作的脚本语言 网页操作(图片切换) 脚本语言(不需要编译 sql,html,css,javascript,由某种解释器直接可以运行) livescript也是面向对象的…

seleniumUI自动化实例(登录CSDN页面)

今天分享一个CSDN登录模块的登录场景 1.配置文件 CSDNconf.py: from selenium import webdriver options webdriver.ChromeOptions() options.binary_location r"D:\Program Files\360\360se6\Application\360se.exe" # 360浏览器安装地址 driver w…

智能合约 之 ERC-721

ERC-721(Non-Fungible Token,NFT)标准 ERC-721是以太坊区块链上的一种代币标准,它定义了一种非同质化代币(Non-Fungible Token,NFT)的标准。NFT是一种加密数字资产,每个代币都具有独…

Unity Toggle处理状态变化事件

Toggle处理状态变化事件,有两个方法。 法一、通过Inspector面板设置 实现步骤: 在Inspector面板中找到Toggle组件的"On Value Changed"事件。单击""按钮添加一个新的监听器。拖动一个目标对象到"None (Object)"字段&am…

【工具】Docker 入门及常用指令

SueWakeup 个人主页:SueWakeup 系列专栏:为祖国的科技进步添砖Java 个性签名:保留赤子之心也许是种幸运吧 目录 1. 什么是 Docker ? 2. Docker 安装 3. Docker 镜像 4. Docker 容器 4.1 运行容器 4.2 查看正在运行的容器 4…

视觉信息处理和FPGA实现第5次作业-Matlab实现图像逆时针旋转90度

一、Matlab2022a安装 链接:https://pan.quark.cn/s/6e177bc7c11d 提取码:dKNN 二、Matlab使用 2.1 新建一个脚本文件(.m文件) 2.2 另存为到便于归档的地方 考虑到.m文件如果不是全英文路径,也有可能会出问题&#…

LiveGBS流媒体平台GB/T28181功能-HTTPS 服务支持配置开启什么时候需要开启HTTPS测试SSL证书配置HTTPS测试证书

LiveGBS功能支持HTTPS 服务支持配置开启什么时候需要开启HTTPS测试SSL证书配置HTTPS测试证书 1、配置开启HTTPS1.1、准备https证书1.1.1、选择Nginx类型证书下载 1.2、配置 LiveCMS 开启 HTTPS1.2.1 web页面配置1.2.2 配置文件配置 2、HTTPS测试证书3、验证HTTPS服务4、为什么要…

1949年-2021年历史县级行政区划分布数据 中国行政村边界数据、乡镇街道边界、行政区划边界

数据范围:全国历史年份县级行政区划 数据类型:面状数据,全国各省市县行政区划边界 数据属性:标准行政区划编码 时间属性:1949年-2021年 分辨率:1:2万--1:5万 数据格式:SHP数据(…

Nginx发布之后可以使用IP访问,不能使用localhost访问, Nginx发布之后可以使用localhost访问,不能使用IP访问,

如标题所说 Nginx发布之后可以使用IP访问,不能使用localhost访问, Nginx发布之后可以使用localhost访问,不能使用IP访问, 修改配置文件也没有用 清除浏览器缓存数据

FPGA通过I2C控制AT24C64

文章目录 前言一、代码设计框图二、IIC_drive模块设计2.1、模块接口:2.2、代码功能描述:2.3、IIC协议实现过程: 三、EEPROM_ctrl模块设计3.1、模块接口:3.2、代码功能描述 四、EEPROM_drive模块五、iic_top模块 前言 继上一篇FPG…