yolov7的改进工地安全帽佩戴检测系统-协同双注意力机制CDAM2(教程+代码)

news2024/11/27 7:43:48

研究的背景和意义

随着工业化和城市化的快速发展,建筑工地的安全问题日益凸显。在建筑工地中,工人的安全是至关重要的,而工地安全帽的佩戴是保障工人安全的重要措施之一。然而,由于工地环境复杂多变,工人的佩戴情况往往难以监控和控制,导致工地安全帽佩戴不规范的情况时有发生。因此,开发一种能够自动检测和识别工地安全帽佩戴情况的系统,对于提高工地安全管理水平具有重要意义。

目前,计算机视觉技术在工地安全管理中的应用已经取得了一定的进展。其中,基于深度学习的目标检测算法是一种非常有效的方法。YOLOv7是一种经典的目标检测算法,具有高效、准确的特点。然而,由于工地环境的复杂性,YOLOv7在工地安全帽佩戴检测中仍然存在一些问题,如对小尺寸目标的检测不准确、对遮挡目标的检测效果较差等。

为了解决这些问题,本研究提出了一种基于协同双注意力机制CDAM2改进YOLOv7的工地安全帽佩戴检测系统。该系统通过引入协同双注意力机制,能够在目标检测过程中更加关注工地安全帽的关键区域,提高检测的准确性和鲁棒性。具体来说,CDAM2机制包括两个注意力模块,一个用于增强感兴趣区域的特征表示,另一个用于抑制背景干扰。通过这种方式,系统能够更好地适应工地环境的复杂性,提高工地安全帽佩戴检测的准确率和鲁棒性。

首先,本研究的成果将有助于提高工地安全管理的效率和水平。

通过自动检测和识别工地安全帽佩戴情况,可以及时发现和纠正不规范的佩戴行为,减少工人因安全帽佩戴不当而导致的伤害事故发生,提高工地的安全性和工作效率。

其次,本研究的方法和技术对于目标检测算法的改进具有一定的参考价值。

通过引入协同双注意力机制,可以提高目标检测算法对小尺寸目标和遮挡目标的检测效果,具有一定的通用性和可扩展性。这对于其他领域的目标检测任务也具有一定的借鉴意义。

最后,本研究的成果还将为相关领域的学术研究和工程实践提供有益的参考。

工地安全帽佩戴检测系统是计算机视觉技术在工业领域的一种应用,对于推动计算机视觉技术在工业领域的发展具有一定的推动作用。同时,本研究的方法和技术也可以为其他领域的目标检测任务提供有益的思路和方法。

综上所述,基于协同双注意力机制CDAM2改进YOLOv7的工地安全帽佩戴检测系统具有重要的研究背景和意义。通过提高工地安全管理的效率和水平,改进目标检测算法的准确性和鲁棒性,以及为相关领域的学术研究和工程实践提供参考,本研究将对工地安全管理和计算机视觉技术的发展产生积极的影响。

图片演示结果:

数据集的采集&标注和整理 :
图片的收集

首先,我们需要收集所需的图片。这可以通过不同的方式来实现,例如使用现有的数据集

使用labelImg进行标注

labelImg是一个图形化的图像注释工具,支持VOC和YOLO格式。以下是使用labelImg将图片标注为VOC格式的步骤:

(1)下载并安装labelImg。 (2)打开labelImg并选择“Open Dir”来选择你的图片目录。 (3)为你的目标对象设置标签名称。 (4)在图片上绘制矩形框,选择对应的标签。 (5)保存标注信息,这将在图片目录下生成一个与图片同名的XML文件。 (6)重复此过程,直到所有的图片都标注完毕。

转换为YOLO格式

由于YOLO使用的是txt格式的标注,我们需要将VOC格式转换为YOLO格式。可以使用各种转换工具或脚本来实现。

下面是一个简单的方法是使用Python脚本,该脚本读取XML文件,然后将其转换为YOLO所需的txt格式。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import xml.etree.ElementTree as ET
import os

classes = []  # 初始化为空列表

CURRENT_DIR = os.path.dirname(os.path.abspath(__file__))

def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)

def convert_annotation(image_id):
    in_file = open('./label_xml\%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('./label_txt\%s.txt' % (image_id), 'w')  # 生成txt格式文件
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        cls = obj.find('name').text
        if cls not in classes:
            classes.append(cls)  # 如果类别不存在,添加到classes列表中
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

xml_path = os.path.join(CURRENT_DIR, './label_xml/')

# xml list
img_xmls = os.listdir(xml_path)
for img_xml in img_xmls:
    label_name = img_xml.split('.')[0]
    print(label_name)
    convert_annotation(label_name)

print("Classes:")  # 打印最终的classes列表
print(classes)  # 打印最终的classes列表
整理数据文件夹结构

我们需要将数据集整理为以下结构:

-----data
   |-----train
   |   |-----images
   |   |-----labels
   |
   |-----valid
   |   |-----images
   |   |-----labels
   |
   |-----test
       |-----images
       |-----labels
确保以下几点:

所有的训练图片都位于data/train/images目录下,相应的标注文件位于data/train/labels目录下。 所有的验证图片都位于data/valid/images目录下,相应的标注文件位于data/valid/labels目录下。 所有的测试图片都位于data/test/images目录下,相应的标注文件位于data/test/labels目录下。 这样的结构使得数据的管理和模型的训练、验证和测试变得非常方便。

核心代码讲解

common.py


class CDAM2(nn.Module):
    def __init__(self, k_size=9):
        super(CDAM2, self).__init__()
        self.h = 256
        self.w = 256

        self.relu1 = nn.ReLU()
        self.avg_pool_x = nn.AdaptiveAvgPool2d((self.h, 1))
        self.avg_pool_y = nn.AdaptiveAvgPool2d((1, self.w))
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.conv1 = nn.Conv1d(256, 1, kernel_size=k_size, padding=(k_size - 1) // 2, bias=False)
        self.conv2 = nn.Conv1d(256, 1, kernel_size=k_size, padding=(k_size - 1) // 2, bias=False)
        self.conv11 = nn.Conv1d(1, 1, kernel_size=k_size, padding=(k_size - 1) // 2, bias=False)
        self.conv22 = nn.Conv1d(1, 1, kernel_size=k_size, padding=(k_size - 1) // 2, bias=False)
        self.sigmoid = nn.Sigmoid()
        self.convout = nn.Conv2d(64 * 5 * 4, 64*5, kernel_size=3, padding=1, bias=False)
        self.conv111 = nn.Conv2d(in_channels=64*5*2, out_channels=64*5*2, kernel_size=1, padding=0, stride=1)
        self.conv222 = nn.Conv2d(in_channels=64*5*2, out_channels=64*5*2, kernel_size=1, padding=0, stride=1)

        self.conv1h = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=(self.h, 1), padding=(0, 0), stride=1)
        self.conv1s = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=(1, self.w), padding=(0, 0), stride=1)

        for m in self.modules():
            if isinstance(m, nn.Conv2d) or isinstance(m, nn.ConvTranspose2d) or isinstance(m, nn.Conv1d):
                if m.bias is not None:
                    m.bias.data.zero_()

    def forward(self, x):
        n, c, h, w = x.size()
        y1 = self.avg_pool_x(x)
        y1 = y1.reshape(n, c, h)
        y1 = self.sigmoid(self.conv11(self.relu1(self.conv1(y1.transpose(-1, -2)))).transpose(-1, -2).reshape(n, c, 1, 1))

        y2 = self.avg_pool_y(x)
        y2 = y2.reshape(n, c, w)
        y2 = self.sigmoid(self.conv22(self.relu1(self.conv2(y2.transpose(-1, -2)))).transpose(-1, -2).reshape(n, c, 1, 1))

        yac = self.conv111(torch.cat([x * y1.expand_as(x), x * y2.expand_as(x)],dim=1))

        avg_mean = torch.mean(x, dim=1, keepdim=True)
        avg_max,_ = torch.max(x, dim=1, keepdim=True)
        avg_out = torch.cat([avg_max, avg_mean], dim=1)
        y3 = self.sigmoid(self.conv1h(avg_out))
        y4 = self.sigmoid(self.conv1s(avg_out))
        yap = self.conv222(torch.cat([x * y3.expand_as(x), x * y4.expand_as(x)],dim=1))

        out = self.convout(torch.cat([yac, yap], dim=1))

        return out

这个类是一个CDAM2模块的实现,继承自nn.Module。CDAM2模块的作用是对输入特征进行处理,并输出处理后的特征。模块的前向传播方法forward接受一个输入张量x,并返回处理后的输出张量out

在模块的初始化方法__init__中,定义了模块中使用的各个层和参数。在前向传播方法中,按照一定的顺序对输入特征进行处理,最终得到输出特征。

这个类的核心部分是前向传播方法forward中的代码,其中包括了各种卷积、池化、激活函数等操作。这些操作按照一定的顺序组合在一起,完成对输入特征的处理。

该程序文件common.py定义了一个名为CDAM2的类,继承自nn.Module。该类是一个ECA模块的实现,用于处理输入特征图。

CDAM2类的构造函数__init__接受一个参数k_size,用于自适应选择卷积核大小。在构造函数中,定义了一些模块和层,包括ReLU激活函数、自适应平均池化层、卷积层、Sigmoid激活函数等。

forward函数是CDAM2类的前向传播方法,接受一个输入特征图x。在前向传播过程中,首先对输入特征图进行一些处理,然后通过两个不同的分支进行特征提取。最后,将两个分支的输出进行拼接,并通过卷积层进行特征融合,得到最终的输出。

整个CDAM2类的作用是实现了一个ECA模块,用于对输入特征图进行特征提取和融合。

 ui.py

def det_yolov7(info1):
    global model, stride, names, pt, jit, onnx, engine
    if info1[-3:] in ['jpg','png','jpeg','tif','bmp']:
        image = cv2.imread(info1)  # 读取识别对象
        try:
            results = run(model, image, stride, pt)  # 识别, 返回多个数组每个第一个为结果,第二个为坐标位置
            for i in results:
                box = i[1]
                p1, p2 = (int(box[0]), int(box[1])), (int(box[2]), int(box[3]))
                color = [255,0,0]
                if i[0] == 'helmet':
                    color = [0, 0, 255]
                    i[0] = 'NO helmet'
                    ui.printf('警告!检测到工人未戴安全帽')
                if i[0] == 'head':
                    color = [0, 255, 0]
                    i[0] = 'Helmet'
                cv2.rectangle(image, p1, p2, color, thickness=3, lineType=cv2.LINE_AA)
                cv2.putText(image, str(i[0]) + ' ' + str(i[2])[:5], (int(box[0]), int(box[1]) - 10),
                            cv2.FONT_HERSHEY_SIMPLEX, 0.75, color, 2)
        except:
            pass
        ui.showimg(image)
    if info1[-3:] in ['mp4','avi']:
        capture = cv2.VideoCapture(info1)
        while True:
            _, image = capture.read()
            if image is None:
                break
            try:
                results = run(model, image, stride, pt)  # 识别, 返回多个数组每个第一个为结果,第二个为坐标位置
                for i in results:
                    box = i[1]
                    p1, p2 = (int(box[0]), int(box[1])), (int(box[2]), int(box[3]))
                    color = [255, 0, 0]
                    if i[0] == 'helmet':
                        color = [0, 0, 255]
                        i[0] = 'NO helmet'
                        ui.printf('警告!检测到

这个程序文件是一个基于YOLOv7的目标检测应用的用户界面。它使用PyQt5库创建了一个窗口,并在窗口中显示了两个标签和四个按钮。标签1和标签2用于显示图像,标签3用于显示检测结果的文本。按钮1和按钮2用于选择图像或视频文件进行检测,按钮3和按钮4用于开始和停止检测。

在程序的后面部分,定义了一个Thread_1类,用于创建一个线程来运行目标检测的函数det_yolov7。det_yolov7函数接受一个参数info1,根据info1的后缀判断是图像文件还是视频文件,然后调用run函数进行目标检测,并将检测结果显示在图像上。如果检测到未戴安全帽的工人,会在文本框中显示警告信息。

整个程序的界面布局和功能都是基于Qt框架实现的,目标检测部分使用了YOLOv7模型和OpenCV库。

系统整体结构

整体功能和构架概述:

该项目是一个基于协同双注意力机制CDAM2改进的YOLOv7模型的工地安全帽佩戴检测系统。它包含了多个程序文件,用于模型的训练、推理和用户界面的展示。

整体构架如下:

  1. models文件夹包含了模型的定义和实现,其中common.py定义了CDAM2模块,experimental.py定义了一些实验性的模块,tf.py定义了TensorFlow相关的模块,yolo.py定义了YOLOv7模型,init.py是一个空文件。
  2. tools文件夹包含了一些工具函数和类,用于数据处理、模型评估、可视化等操作。
  3. utils文件夹也包含了一些工具函数和类,与tools文件夹功能类似,但可能有一些不同的实现。
  4. train.py是用于训练模型的脚本,它加载模型和数据集,并使用指定的超参数和优化器进行训练。
  5. detect.py是用于目标检测的脚本,它加载模型和数据源,并进行推理和后处理。
  6. Interface.py是一个接口文件,用于加载模型并进行目标检测。
  7. torch_utils.py是一个PyTorch的工具文件,包含了一些常用的函数和类。
  8. ui.py是一个基于YOLOv7的目标检测应用的用户界面,使用PyQt5库创建了一个窗口,可以选择图像或视频文件进行检测。

下面是每个文件的功能整理:

文件路径功能
common.py定义CDAM2模块
detect.py目标检测脚本
Interface.py加载模型并进行目标检测的接口文件
torch_utils.pyPyTorch的工具文件
train.py训练模型的脚本
ui.py基于YOLOv7的目标检测应用的用户界面
models\common.py定义一些通用的模型组件
models\experimental.py定义一些实验性的模型组件
models\tf.py定义TensorFlow相关的模型组件
models\yolo.py定义YOLOv7模型
models_init_.py空文件
tools\activations.py定义激活函数
tools\augmentations.py定义数据增强方法
tools\autoanchor.py定义自动锚框生成方法
tools\autobatch.py定义自动批处理方法
tools\callbacks.py定义回调函数
tools\datasets.py定义数据集类
tools\downloads.py定义下载数据集的方法
tools\general.py定义一些通用的工具函数
tools\loss.py定义损失函数
tools\metrics.py定义评估指标
tools\plots.py定义绘图函数
tools\torch_utils.py定义一些PyTorch的工具函数
tools_init_.py空文件
tools\aws\resume.py定义AWS训练恢复方法
tools\aws_init_.py空文件
tools\flask_rest_api\example_request.py定义Flask REST API的示例请求
tools\flask_rest_api\restapi.py定义Flask REST API的实现
tools\loggers_init_.py空文件
tools\loggers\wandb\log_dataset.py定义使用WandB记录数据集的方法
tools\loggers\wandb\sweep.py定义使用WandB进行超参数搜索的方法
tools\loggers\wandb\wandb_utils.py定义使用WandB的一些工具函数
tools\loggers\wandb_init_.py空文件
utils\activations.py定义激活函数
utils\augmentations.py定义数据增强方法
utils\autoanchor.py定义自动锚框生成方法
utils\autobatch.py定义自动批处理方法
utils\callbacks.py定义回调函数
utils\datasets.py定义数据集类
utils\downloads.py定义下载数据集的方法
utils\general.py定义一些通用的工具函数
utils\loss.py定义损失函数
utils\metrics.py定义评估指标
utils\plots.py定义绘图函数
utils\torch_utils.py定义一些PyTorch的工具函数
utils_init_.py空文件
utils\aws\resume.py定义AWS训练恢复方法
utils\aws_init_.py空文件
utils\flask_rest_api\example_request.py定义Flask REST API的示例请求
utils\flask_rest_api\restapi.py定义Flask REST API的实现
utils\loggers_init_.py空文件
utils\loggers\wandb\log_dataset.py定义使用WandB记录数据集的方法
utils\loggers\wandb\sweep.py定义使用WandB进行超参数搜索的方法
utils\loggers\wandb\wandb_utils.py定义使用WandB的一些工具函数

配置文件的配置

对数据集整理之后,修改配置文件为如下:

# COCO 2017 dataset http://cocodataset.org
 
# download command/URL (optional)
# download: bash ./scripts/get_coco.sh
 
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: '/home/devuser/pan/yolov7/datasets/VOC2028/SafetyHelmet/images/train2028'  
val: '/home/devuser/pan/yolov7/datasets/VOC2028/SafetyHelmet/images/val2028'  
#test: ./coco/test-dev2017.txt  # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
 
# number of classes
nc: 2
 
# class names
names: ['hat','person']
 训练模型(已经训练好):
python3 train.py --weights weights/yolov7_training.pt --cfg cfg/training/yolov7.yaml --data data/SafetyHelmet.yaml --device 0,1 --batch-size 8  --epoch 50

YOLOv7网络模型的改进

如图所示,MSCE 利用了三个分支,这些分支由3×3 卷积3×1 卷积(水平核),以及1×3 卷积(垂直核),膨胀率为{1,2,4},由水平池化和垂直池化组成的两个分支。卷积分支提取不同尺度的道路特征,池化分支可以保留道路在垂直和水平方向上的全局信息。我们利用元素加法运算来融合同一分支中不同感受野的特征图。然后,串联和卷积运算将不同分支输出的特征图组合在一起。最后,将E5与融合特征图相结合,得到具有丰富道路脉情的特征图D5,其中p 是一个可学习的参数。

FSFF 模块
不同阶段的编码器特征图包含不同层次的信息。底层特征图包含丰富的空间信息,可提供道路整体结构信息;高级特征图包含准确的安全帽语义信息,可以增强模型对安全帽和背景的区分能力。结合不同阶段的特征图,可以有效地为解码器补充足够的道路分层特征,使模型预测的道路边界更加清晰。谷歌大脑团队设计了一种新颖的CDAM来促进FSFF。

FSFF 模块如图所示,以 E3 为例。首先,将细粒度特征图(E5和E4)和粗粒度特征图(E1和E2)调整为与E3相同的大小,并通过卷积将通道数调整为64个。然后,通过串联操作传输调整大小的特征图。最后,将采集到的合并特征图送入CDAM中,以加强安全帽特征表示。可视化结果如图所示。

坐标通道注意力机制(CCAM)如图所示。融合的特征图F我∈RC×H×W 被具有形状(H 、1) 和 (1,W ),并使用整形操作将特征图转换为FH∈RH×C 和FW∈RW×C .我们采用一维卷积和一个滤波器来获得特征图的跨通道交互。Sigmoid 激活用于分别获得结合水平和垂直特征的通道权重。通过串联运算将输入特征图与通道权重相结合,得到特征图FC∈R2C×H×W .

 坐标位置注意力机制(CPAM)如图所示。Avgpooling、maxpooling 和卷积用于输入特征图的通道维度F我∈R1×H×W 聚合要素。然后,核大小为 (H 、1) 和 (1,W ) 用于提取水平和垂直方向的特征。sigmoid 激活函数用于获取特征图的位置权重。将按位置权重加权的输入特征图发送到串联中,得到特征图FP∈R2C×H×W .

得到的特征图FC 和FP 被拼接,然后输入到1×1 卷积生成精确的安全帽结构特征图FS∈RC×H×W .

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1582263.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

网络安全之权限维持那点事

权限维持 一旦黑客成功地入侵了目标系统,他们通常会尝试保持对系统的持久访问权,以便继续执行恶意活动,如窃取敏感数据、植入恶意软件、破坏系统功能等。 权限维持的过程可能包括以下几个方面: 后门植入:黑客可能会在…

蓝桥杯单片机要点——第十二届省赛(含代码)

题目: 用到的模块: LED单个点亮(建议用sbit,文件开头定义单个引脚) 数码管动态显示 矩阵键盘 ds18b20,用到onewire.c DAC转化(步骤见文章末尾的易错点),用到iic.c m…

一本书了解AI的下一个风口:AI Agent

在数字化浪潮中,人工智能(AI)已成为推动现代社会前进的强劲引擎。 从智能手机的智能助手到自动驾驶汽车的精准导航,AI技术的应用已经渗透到生活的方方面面。 随着技术的飞速发展,我们正站在一个新的转折点上&#xff…

Playwright安装和基本使用(ui/web自动化)

1.简介 Playwright是2021年微软开源的一个项目「playwright-python」。针对 Python 语言的纯自动化工具,它可以通过单个API自动执行 Chromium,Firefox 和 WebKit 浏览器,同时支持以无头模式、有头模式运行。 Playwright(Git&…

美国CPC认证是什么认证

美国CPC认证是一种针对儿童产品的认证,旨在确保这些产品的安全性。CPC全称为Consumer Product Certification,即消费品认证,是美国消费品安全委员会(CPSC)所推行的一种自愿性认证制度。通过CPC认证的产品,意…

人证比对接口在游戏行业的作用

人证比对接口又叫实人认证接口、人脸身份证比对接口、人脸实名认证接口,这个接口在很多行业都有重大作用,特别是确认当前用户信息至关重要。今天我们来聊一聊实人认证接口在游戏行业的作用。 今天为什么聊这个话题呢,主要就是最近热搜都被杭…

AR远程空间标注Vuforia+WebRTC音视频通话和空间标注功能

AR远程空间标注VuforiaWebRTC音视频通话和空间标注功能 视频学习地址:https://www.bilibili.com/video/BV1ZT4y187mG/?vd_sourcefc4b6cdd80b58c93a280fd74c37aadbf

LeetCode110:平衡二叉树

题目描述 给定一个二叉树,判断它是否是 平衡二叉树 解题思想 使用递归依次计算左子树的高度和右子树的高度 代码 class Solution { public:int height(TreeNode* node) {if (node nullptr) return 0;int leftT height(node->left);if (leftT -1) return -1;…

武汉星起航:亚马逊助力中国卖家拓展全球市场,实现品牌价值最大化

亚马逊,作为全球电商的领军平台,不仅为消费者提供了丰富的购物选择,同时也为中国卖家带来了前所未有的益处和在中国市场的巨大优势。 亚马逊为中国卖家提供了一个全球化的销售平台。这个平台不仅连接了中国与世界的消费者,还为中…

标准C库文件操作

open 系列API 和 fopen系列API的区别 1.来源: -open 是UNIX系统调用函数(包括LINUX系统),返回的是文件描述符 -fopen是ANSIC标准的C语言库函数,在不同系统重调用不同内核的API 2.移植性: fopen 是C标准函数,具有良好的移植性; 而…

Vue 移动端(H5)项目怎么实现页面缓存(即列表页面进入详情返回后列表页面缓存且还原页面滚动条位置)keep-alive简单使用

一、需求 产品要求:Vue移动端项目进入列表页,列表页需要刷新,而从详情页返回列表页,列表页则需要缓存并且还原页面滚动条位置 二、实现思路 1、使用Vue中的keep-alive组件,keep-alive提供了路由缓存功能 2、因为我项…

基于知识图谱的推理:智能决策与自动发现

基于知识图谱的推理:智能决策与自动发现 一、引言 在今天这个数据驱动的时代,我们经常会听到人们提及“知识图谱”这个词。知识图谱,作为一种结构化知识的表达方式,已经成为智能系统不可或缺的一部分,它通过连接大量的…

ModuleNotFoundError: No module named ‘mlxtend‘

from mlxtend.plotting import plot_decision_regions 报错信息: ModuleNotFoundError: No module named mlxtend Jupyter和Spyder报错原因:因为anaconda下没有这个模块,需要安装mlxtend 解决方案: 1.打开anaconda(或终端) 2. 点击路径点…

项目文章| Plant CellDAP-seq解析草莓NAC转录因子FvRIF的调控网络

DAP-seq是一种体外研究蛋白与DNA结合的技术,该技术利用麦胚乳表达体系表达目标蛋白然后与基因组DNA文库体外孵育,得到目标蛋白的结合信息。与ChIP-seq和CUT&Tag不同,DAP-seq不需要抗体,在植物中应用更为广泛。今天我们分享一篇…

Java开发面试题分享

目录 1、简述MyISAM和InnoDB的区别 2、简述Hash和B树索引的区别 3、简述MyBatis的实现逻辑 4、#{}和${}的区别 5、简述Mybatis的优缺点 6、当实体类中的属性名和表中的字段名不一样时怎么办? 7、resultType与resultMap的区别 8、如何执行批量插入 9、Mybat…

[中级]软考_软件设计_计算机组成与体系结构_12_概述及回顾

概述及回顾 总纲考情分析与分值海明校验码计算公式重点 总纲 考情分析与分值 海明校验码计算公式 2 r m r 1 2^r mr1 2rmr1 重点 数据的表示是计算题型的基础计算机组成中的CPU组成计算机组成中的存储系统,是核心重点的考察CISC与RISC及流水线执行时间的求取

YOLOv8在windows平台的C++推理

前言 YOLOv8很多人很多人很熟悉了,现在V9都已经出来了,学习没有比别人更新的快! 个人记录一下在windows平台使用C++推理的记录。 环境配置 YOLOv8的传统的环境配置,就不多说,网上很多参考教程。 需要注意的点就是,本次C++推理需要使用OPENCV的DNN模块,所以我们需要下…

每日OJ题_BFS解决FloodFill①_力扣733. 图像渲染

目录 BFS解决FloodFill简介 力扣733. 图像渲染 解析代码 BFS解决FloodFill简介 FloodeFill算法即填充算法,中文:洪水灌溉,算法原理就是从一个点开始向四周扩散,向周围可以走到的点填充颜色,直到将可扩散到的点全部填…

ElasticSearch分词检索

1. 倒排索引:表示一种数据结构,分词词条与文档id集合的隐射关系 2. 它跟关系型数据库是一种互补的关系,因为关系型数据库支持事务操作,满足ACID原则 3. 索引库的文档字段只允许新增不允许修改 1.创建索引库 put /索引库名称2.1 …

Altair® (澳汰尔)Inspire™ Render —— 强大的 3D 渲染和动画工具

Inspire Render 是一种全新 3D 渲染和动画工具,可供创新设计师、建筑师和数字艺术家以前所未有的速度快速制作精美的产品演示。 借助基于物理特性的内置高品质全局照明渲染引擎 Thea Render,可以快速创建、修改和拖放各种材质并添加照明环境&#xff0c…