竞赛 深度学习+python+opencv实现动物识别 - 图像识别

news2024/11/24 5:24:13

文章目录

  • 0 前言
  • 1 课题背景
  • 2 实现效果
  • 3 卷积神经网络
    • 3.1卷积层
    • 3.2 池化层
    • 3.3 激活函数:
    • 3.4 全连接层
    • 3.5 使用tensorflow中keras模块实现卷积神经网络
  • 4 inception_v3网络
  • 5 最后

0 前言

🔥 优质竞赛项目系列,今天要分享的是

🚩 **基于深度学习的动物识别算法 **

该项目较为新颖,适合作为竞赛课题方向,学长非常推荐!

🥇学长这里给一个题目综合评分(每项满分5分)

  • 难度系数:3分
  • 工作量:3分
  • 创新点:3分

🧿 更多资料, 项目分享:

https://gitee.com/dancheng-senior/postgraduate

在这里插入图片描述

1 课题背景

利用深度学习对野生动物进行自动识别分类,可以大大提高野生动物监测效率,为野生动物保护策略的制定提供可靠的数据支持。但是目前野生动物的自动识别仍面临着监测图像背景信息复杂、质量低造成的识别准确率低的问题,影响了深度学习技术在野生动物保护领域的应用落地。为了实现高准确率的野生动物自动识别,本项目基于卷积神经网络实现图像动物识别。

2 实现效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3 卷积神经网络

受到人类大脑神经突触结构相互连接的模式启发,神经网络作为人工智能领域的重要组成部分,通过分布式的方法处理信息,可以解决复杂的非线性问题,从构造方面来看,主要包括输入层、隐藏层、输出层三大组成结构。每一个节点被称为一个神经元,存在着对应的权重参数,部分神经元存在偏置,当输入数据x进入后,对于经过的神经元都会进行类似于:y=w*x+b的线性函数的计算,其中w为该位置神经元的权值,b则为偏置函数。通过每一层神经元的逻辑运算,将结果输入至最后一层的激活函数,最后得到输出output。
在这里插入图片描述

3.1卷积层

卷积核相当于一个滑动窗口,示意图中3x3大小的卷积核依次划过6x6大小的输入数据中的对应区域,并与卷积核滑过区域做矩阵点乘,将所得结果依次填入对应位置即可得到右侧4x4尺寸的卷积特征图,例如划到右上角3x3所圈区域时,将进行0x0+1x1+2x1+1x1+0x0+1x1+1x0+2x0x1x1=6的计算操作,并将得到的数值填充到卷积特征的右上角。
在这里插入图片描述

3.2 池化层

池化操作又称为降采样,提取网络主要特征可以在达到空间不变性的效果同时,有效地减少网络参数,因而简化网络计算复杂度,防止过拟合现象的出现。在实际操作中经常使用最大池化或平均池化两种方式,如下图所示。虽然池化操作可以有效的降低参数数量,但过度池化也会导致一些图片细节的丢失,因此在搭建网络时要根据实际情况来调整池化操作。
在这里插入图片描述

3.3 激活函数:

激活函数大致分为两种,在卷积神经网络的发展前期,使用较为传统的饱和激活函数,主要包括sigmoid函数、tanh函数等;随着神经网络的发展,研宄者们发现了饱和激活函数的弱点,并针对其存在的潜在问题,研宄了非饱和激活函数,其主要含有ReLU函数及其函数变体

3.4 全连接层

在整个网络结构中起到“分类器”的作用,经过前面卷积层、池化层、激活函数层之后,网络己经对输入图片的原始数据进行特征提取,并将其映射到隐藏特征空间,全连接层将负责将学习到的特征从隐藏特征空间映射到样本标记空间,一般包括提取到的特征在图片上的位置信息以及特征所属类别概率等。将隐藏特征空间的信息具象化,也是图像处理当中的重要一环。

3.5 使用tensorflow中keras模块实现卷积神经网络

class CNN(tf.keras.Model):
    def __init__(self):
        super().__init__()
        self.conv1 = tf.keras.layers.Conv2D(
            filters=32,             # 卷积层神经元(卷积核)数目
            kernel_size=[5, 5],     # 感受野大小
            padding='same',         # padding策略(vaild 或 same)
            activation=tf.nn.relu   # 激活函数
        )
        self.pool1 = tf.keras.layers.MaxPool2D(pool_size=[2, 2], strides=2)
        self.conv2 = tf.keras.layers.Conv2D(
            filters=64,
            kernel_size=[5, 5],
            padding='same',
            activation=tf.nn.relu
        )
        self.pool2 = tf.keras.layers.MaxPool2D(pool_size=[2, 2], strides=2)
        self.flatten = tf.keras.layers.Reshape(target_shape=(7 * 7 * 64,))
        self.dense1 = tf.keras.layers.Dense(units=1024, activation=tf.nn.relu)
        self.dense2 = tf.keras.layers.Dense(units=10)

    def call(self, inputs):
        x = self.conv1(inputs)                  # [batch_size, 28, 28, 32]
        x = self.pool1(x)                       # [batch_size, 14, 14, 32]
        x = self.conv2(x)                       # [batch_size, 14, 14, 64]
        x = self.pool2(x)                       # [batch_size, 7, 7, 64]
        x = self.flatten(x)                     # [batch_size, 7 * 7 * 64]
        x = self.dense1(x)                      # [batch_size, 1024]
        x = self.dense2(x)                      # [batch_size, 10]
        output = tf.nn.softmax(x)
        return output

4 inception_v3网络

简介
如果 ResNet 是为了更深,那么 Inception 家族就是为了更宽。Inception
的作者对训练更大型网络的计算效率尤其感兴趣。换句话说:怎样在不增加计算成本的前提下扩展神经网络?

网路结构图
在这里插入图片描述
主要改动
在这里插入图片描述

  • 将7×7卷积分解为3个3×3的卷积。
  • 35×35的Inception模块采用图1所示结构,之后采用图5类似结构进行下采样
  • 17×17的Inception模块采用图2所示结构,也是采用图5类似结构下采样
  • 8×8的Inception模块采用图3所示结构,进行较大维度的提升。

Tensorflow实现代码



    import os
    import keras
    import numpy as np
    import tensorflow as tf
    from tensorflow.keras import layers
    from tensorflow.keras.models import Model
    config = tf.compat.v1.ConfigProto()
    config.gpu_options.allow_growth = True      # TensorFlow按需分配显存
    config.gpu_options.per_process_gpu_memory_fraction = 0.5  # 指定显存分配比例

    inceptionV3_One={'1a':[64,48,64,96,96,32],
                     '2a':[64,48,64,96,96,64],
                     '3a':[64,48,64,96,96,64]
    }


    inceptionV3_Two={'1b':[192,128,128,192,128,128,128,128,192,192],
                     '2b':[192,160,160,192,160,160,160,160,192,192],
                     '3b':[192,160,160,192,160,160,160,160,192,192],
                     '4b':[192,192,192,192,192,192,192,192,192,192]
    }
    keys_two=(list)(inceptionV3_Two.keys())
    
    inceptionV3_Three={
                    '1c':[320,384,384,384,448,384,384,384,192],
                    '2c':[320,384,384,384,448,384,384,384,192]
    }
    keys_three=(list)(inceptionV3_Three.keys())
    
    def InceptionV3(inceptionV3_One,inceptionV3_Two,inceptionV3_Three):
        keys_one=(list)(inceptionV3_One.keys())
        keys_two = (list)(inceptionV3_Two.keys())
        keys_three = (list)(inceptionV3_Three.keys())
    
        input=layers.Input(shape=[299,299,3])
    
        # 输入部分
        conv1_one = layers.Conv2D(32, kernel_size=[3, 3], strides=[2, 2], padding='valid')(input)
        conv1_batch=layers.BatchNormalization()(conv1_one)
        conv1relu=layers.Activation('relu')(conv1_batch)
        conv2_one = layers.Conv2D(32, kernel_size=[3, 3], strides=[1,1],padding='valid')(conv1relu)
        conv2_batch=layers.BatchNormalization()(conv2_one)
        conv2relu=layers.Activation('relu')(conv2_batch)
        conv3_padded = layers.Conv2D(64, kernel_size=[3, 3], strides=[1,1],padding='same')(conv2relu)
        conv3_batch=layers.BatchNormalization()(conv3_padded)
        con3relu=layers.Activation('relu')(conv3_batch)
        pool1_one = layers.MaxPool2D(pool_size=[3, 3], strides=[2, 2])(con3relu)
        conv4_one = layers.Conv2D(80, kernel_size=[3,3], strides=[1,1], padding='valid')(pool1_one)
        conv4_batch=layers.BatchNormalization()(conv4_one)
        conv4relu=layers.Activation('relu')(conv4_batch)
        conv5_one = layers.Conv2D(192, kernel_size=[3, 3], strides=[2,2], padding='valid')(conv4relu)
        conv5_batch = layers.BatchNormalization()(conv5_one)
        x=layers.Activation('relu')(conv5_batch)
    
        """
            filter11:1x1的卷积核个数
            filter13:3x3卷积之前的1x1卷积核个数
            filter33:3x3卷积个数
            filter15:使用3x3卷积代替5x5卷积之前的1x1卷积核个数
            filter55:使用3x3卷积代替5x5卷积个数
            filtermax:最大池化之后的1x1卷积核个数
        """
        for i in range(3):
            conv11 = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][0]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion11 = layers.BatchNormalization()(conv11)
            conv11relu = layers.Activation('relu')(batchnormaliztion11)
    
            conv13 = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][1]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion13 = layers.BatchNormalization()(conv13)
            conv13relu = layers.Activation('relu')(batchnormaliztion13)
            conv33 = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][2]), kernel_size=[5, 5], strides=[1, 1], padding='same')(conv13relu)
            batchnormaliztion33 = layers.BatchNormalization()(conv33)
            conv33relu = layers.Activation('relu')(batchnormaliztion33)
    
            conv1533 = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][3]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion1533 = layers.BatchNormalization()(conv1533)
            conv1522relu = layers.Activation('relu')(batchnormaliztion1533)
            conv5533first = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][4]), kernel_size=[3, 3], strides=[1, 1], padding='same')(conv1522relu)
            batchnormaliztion5533first = layers.BatchNormalization()(conv5533first)
            conv5533firstrelu = layers.Activation('relu')(batchnormaliztion5533first)
            conv5533last = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][4]), kernel_size=[3, 3], strides=[1, 1], padding='same')(conv5533firstrelu)
            batchnormaliztion5533last = layers.BatchNormalization()(conv5533last)
            conv5533lastrelu = layers.Activation('relu')(batchnormaliztion5533last)
    
            maxpool = layers.AveragePooling2D(pool_size=[3, 3], strides=[1, 1], padding='same')(x)
            maxconv11 = layers.Conv2D((int)(inceptionV3_One[keys_one[i]][5]), kernel_size=[1, 1], strides=[1, 1], padding='same')(maxpool)
            batchnormaliztionpool = layers.BatchNormalization()(maxconv11)
            convmaxrelu = layers.Activation('relu')(batchnormaliztionpool)
    
            x=tf.concat([
                conv11relu,conv33relu,conv5533lastrelu,convmaxrelu
            ],axis=3)
    
        conv1_two = layers.Conv2D(384, kernel_size=[3, 3], strides=[2, 2], padding='valid')(x)
        conv1batch=layers.BatchNormalization()(conv1_two)
        conv1_tworelu=layers.Activation('relu')(conv1batch)
    
        conv2_two = layers.Conv2D(64, kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
        conv2batch=layers.BatchNormalization()(conv2_two)
        conv2_tworelu=layers.Activation('relu')(conv2batch)
        conv3_two = layers.Conv2D( 96, kernel_size=[3, 3], strides=[1,1], padding='same')(conv2_tworelu)
        conv3batch=layers.BatchNormalization()(conv3_two)
        conv3_tworelu=layers.Activation('relu')(conv3batch)
        conv4_two = layers.Conv2D( 96, kernel_size=[3, 3], strides=[2, 2], padding='valid')(conv3_tworelu)
        conv4batch=layers.BatchNormalization()(conv4_two)
        conv4_tworelu=layers.Activation('relu')(conv4batch)
    
        maxpool = layers.MaxPool2D(pool_size=[3, 3], strides=[2, 2])(x)
        x=tf.concat([
            conv1_tworelu,conv4_tworelu,maxpool
        ],axis=3)
        """
            filter11:1x1的卷积核个数
            filter13:使用1x3,3x1卷积代替3x3卷积之前的1x1卷积核个数
            filter33:使用1x3,3x1卷积代替3x3卷积的个数
            filter15:使用1x3,3x1,1x3,3x1卷积卷积代替5x5卷积之前的1x1卷积核个数
            filter55:使用1x3,3x1,1x3,3x1卷积代替5x5卷积个数
            filtermax:最大池化之后的1x1卷积核个数
        """
        for i in range(4):
            conv11 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][0]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion11 = layers.BatchNormalization()(conv11)
            conv11relu=layers.Activation('relu')(batchnormaliztion11)
    
            conv13 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][1]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion13 = layers.BatchNormalization()(conv13)
            conv13relu=layers.Activation('relu')(batchnormaliztion13)
            conv3313 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][2]), kernel_size=[1, 7], strides=[1, 1], padding='same')(conv13relu)
            batchnormaliztion3313 = layers.BatchNormalization()(conv3313)
            conv3313relu=layers.Activation('relu')(batchnormaliztion3313)
            conv3331 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][3]), kernel_size=[7, 1], strides=[1, 1], padding='same')(conv3313relu)
            batchnormaliztion3331 = layers.BatchNormalization()(conv3331)
            conv3331relu=layers.Activation('relu')(batchnormaliztion3331)
    
            conv15 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][4]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion15 = layers.BatchNormalization()(conv15)
            conv15relu=layers.Activation('relu')(batchnormaliztion15)
            conv1513first = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][5]), kernel_size=[1, 7], strides=[1, 1], padding='same')(conv15relu)
            batchnormaliztion1513first = layers.BatchNormalization()(conv1513first)
            conv1513firstrelu=layers.Activation('relu')(batchnormaliztion1513first)
            conv1531second = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][6]), kernel_size=[7, 1], strides=[1, 1], padding='same')(conv1513firstrelu)
            batchnormaliztion1531second = layers.BatchNormalization()(conv1531second)
            conv1531second=layers.Activation('relu')(batchnormaliztion1531second)
            conv1513third = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][7]), kernel_size=[1, 7], strides=[1, 1], padding='same')(conv1531second)
            batchnormaliztion1513third = layers.BatchNormalization()(conv1513third)
            conv1513thirdrelu=layers.Activation('relu')(batchnormaliztion1513third)
            conv1531last = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][8]), kernel_size=[7, 1], strides=[1, 1], padding='same')(conv1513thirdrelu)
            batchnormaliztion1531last = layers.BatchNormalization()(conv1531last)
            conv1531lastrelu=layers.Activation('relu')(batchnormaliztion1531last)
    
            maxpool = layers.AveragePooling2D(pool_size=[3, 3], strides=[1, 1], padding='same')(x)
            maxconv11 = layers.Conv2D((int)(inceptionV3_Two[keys_two[i]][9]), kernel_size=[1, 1], strides=[1, 1], padding='same')(maxpool)
            maxconv11relu = layers.BatchNormalization()(maxconv11)
            maxconv11relu = layers.Activation('relu')(maxconv11relu)
    
            x=tf.concat([
                conv11relu,conv3331relu,conv1531lastrelu,maxconv11relu
            ],axis=3)
    
        conv11_three=layers.Conv2D(192, kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
        conv11batch=layers.BatchNormalization()(conv11_three)
        conv11relu=layers.Activation('relu')(conv11batch)
        conv33_three=layers.Conv2D(320, kernel_size=[3, 3], strides=[2, 2], padding='valid')(conv11relu)
        conv33batch=layers.BatchNormalization()(conv33_three)
        conv33relu=layers.Activation('relu')(conv33batch)
    
        conv7711_three=layers.Conv2D(192, kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
        conv77batch=layers.BatchNormalization()(conv7711_three)
        conv77relu=layers.Activation('relu')(conv77batch)
        conv7717_three=layers.Conv2D(192, kernel_size=[1, 7], strides=[1, 1], padding='same')(conv77relu)
        conv7717batch=layers.BatchNormalization()(conv7717_three)
        conv7717relu=layers.Activation('relu')(conv7717batch)
        conv7771_three=layers.Conv2D(192, kernel_size=[7, 1], strides=[1, 1], padding='same')(conv7717relu)
        conv7771batch=layers.BatchNormalization()(conv7771_three)
        conv7771relu=layers.Activation('relu')(conv7771batch)
        conv33_three=layers.Conv2D(192, kernel_size=[3, 3], strides=[2, 2], padding='valid')(conv7771relu)
        conv3377batch=layers.BatchNormalization()(conv33_three)
        conv3377relu=layers.Activation('relu')(conv3377batch)
    
        convmax_three=layers.MaxPool2D(pool_size=[3, 3], strides=[2, 2])(x)
        x=tf.concat([
            conv33relu,conv3377relu,convmax_three
        ],axis=3)
        """
            filter11:1x1的卷积核个数
            filter13:使用1x3,3x1卷积代替3x3卷积之前的1x1卷积核个数
            filter33:使用1x3,3x1卷积代替3x3卷积的个数
            filter15:使用3x3卷积代替5x5卷积之前的1x1卷积核个数
            filter55:使用3x3卷积代替5x5卷积个数
            filtermax:最大池化之后的1x1卷积核个数
            """
        for i in range(2):
            conv11 = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][0]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion11 = layers.BatchNormalization()(conv11)
            conv11relu=layers.Activation('relu')(batchnormaliztion11)
    
            conv13 = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][1]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion13 = layers.BatchNormalization()(conv13)
            conv13relu=layers.Activation('relu')(batchnormaliztion13)
            conv33left = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][2]), kernel_size=[1, 3], strides=[1, 1], padding='same')(conv13relu)
            batchnormaliztion33left = layers.BatchNormalization()(conv33left)
            conv33leftrelu=layers.Activation('relu')(batchnormaliztion33left)
            conv33right = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][3]), kernel_size=[3, 1], strides=[1, 1], padding='same')(conv33leftrelu)
            batchnormaliztion33right = layers.BatchNormalization()(conv33right)
            conv33rightrelu=layers.Activation('relu')(batchnormaliztion33right)
            conv33rightleft=tf.concat([
                conv33leftrelu,conv33rightrelu
            ],axis=3)
    
            conv15 = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][4]), kernel_size=[1, 1], strides=[1, 1], padding='same')(x)
            batchnormaliztion15 = layers.BatchNormalization()(conv15)
            conv15relu=layers.Activation('relu')(batchnormaliztion15)
            conv1533 = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][5]), kernel_size=[3, 3], strides=[1, 1], padding='same')(conv15relu)
            batchnormaliztion1533 = layers.BatchNormalization()(conv1533)
            conv1533relu=layers.Activation('relu')(batchnormaliztion1533)
            conv1533left = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][6]), kernel_size=[1, 3], strides=[1, 1], padding='same')(conv1533relu)
            batchnormaliztion1533left = layers.BatchNormalization()(conv1533left)
            conv1533leftrelu=layers.Activation('relu')(batchnormaliztion1533left)
            conv1533right = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][6]), kernel_size=[3, 1], strides=[1, 1], padding='same')(conv1533leftrelu)
            batchnormaliztion1533right = layers.BatchNormalization()(conv1533right)
            conv1533rightrelu=layers.Activation('relu')(batchnormaliztion1533right)
            conv1533leftright=tf.concat([
                conv1533right,conv1533rightrelu
            ],axis=3)
    
            maxpool = layers.AveragePooling2D(pool_size=[3, 3], strides=[1, 1],padding='same')(x)
            maxconv11 = layers.Conv2D((int)(inceptionV3_Three[keys_three[i]][8]), kernel_size=[1, 1], strides=[1, 1], padding='same')(maxpool)
            batchnormaliztionpool = layers.BatchNormalization()(maxconv11)
            maxrelu = layers.Activation('relu')(batchnormaliztionpool)
    
            x=tf.concat([
                conv11relu,conv33rightleft,conv1533leftright,maxrelu
            ],axis=3)
    
        x=layers.GlobalAveragePooling2D()(x)
        x=layers.Dense(1000)(x)
        softmax=layers.Activation('softmax')(x)
        model_inceptionV3=Model(inputs=input,outputs=softmax,name='InceptionV3')
        return model_inceptionV3
    
    model_inceptionV3=InceptionV3(inceptionV3_One,inceptionV3_Two,inceptionV3_Three)
    model_inceptionV3.summary()



5 最后

🧿 更多资料, 项目分享:

https://gitee.com/dancheng-senior/postgraduate

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1092003.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

生物标志物发现中的无偏数据分析策略

目录 0. 导论基本概念 1. 生物标志物发现的注意事项2. 数据预处理2.1 高质量原始数据和缺失值处理2.2 数据过滤2.3 数据归一化 3. 数据质量评估3.1 混杂因素3.2 类别分离3.3 功效分析3.4 批次效应 4. 生物标志物发现4.1 策略4.2 数据分析工具4.3 模型优化策略 0. 导论 组学技术…

Pytorch之MobileViT图像分类

文章目录 前言一、Transformer存在的问题二、MobileViT1.MobileViT网络结构🍓 Vision Transformer结构🍉MobileViT结构 2.MV2(MobileNet v2 block)3.MobileViT block🥇Local representations🥈Transformers as Convolutions (glob…

三十四、【进阶】MySQL索引的操作

1、创建索引 (1)基础语法 (2)唯一索引 唯一索引与普通索引不同的是,索引列的数值必须唯一,但允许有空值null; 唯一索引与主键索引不同的是,主键索引不允许出现空值null&#xff0…

Webmin 远程命令执行漏洞_CVE-2019-15107

Webmin 远程命令执行漏洞_CVE-2019-15107 文章目录 Webmin 远程命令执行漏洞_CVE-2019-15107在线漏洞详情:漏洞描述:版本影响:环境搭建漏洞复现使用BP进行抓包POC发送以下POST请求来执行命令id:复现成功 漏洞利用-shell反弹执行反弹指令bp的i…

【Flutter Widget】AppBar 和 PopupMenu

App Bar 可以视为页面的标题栏,在 Flutter 中用AppBar组件实现;Popup Menu 是弹出菜单,用PopupMenuButton实现。下面结合这两个组件说明其用法。 1. 代码实现 一个简单的AppBar实现代码如下: import package:flutter/material.…

同源策略和跨域问题

1.跨域问题产生的原因 浏览器的同源策略影响,同源策略是一种安全机制,它限制了一个网页中的脚本只能访问同源的资源。 跨源网络访问的三种方式:跨域写操作,跨域资源嵌入,跨域读操作 2.跨域问题案例 ip和域名不一致…

使用 Certbot 为 Nginx 自动配置 SSL 证书

发布于 2023-07-13 on https://chenhaotian.top/linux/certbot-nginx/ 使用 Certbot 为 Nginx 自动配置 SSL 证书 配置步骤 以 Debian 11 为例 1. 安装Certbot和Nginx插件 sudo apt-get update sudo apt-get install certbot python3-certbot-nginx2. 获取和安装证书 运行…

nginx的location的优先级和匹配方式和nginx的重定向

在http模块有server,在server模块才有location,location匹配的是uri /test /image 在一个server当中有多个location,如何来确定匹配哪个location。 nginx的正则表达式: ^:字符串的起始位置 $:字符串的结束位置 *:匹配所有 &am…

【宏offsetof详解和模拟实现】

文章目录 一. 什么是offsetof&#xff1f;二. 用宏模拟实现offsetof三. 代码重点讲解四. 结束语 一. 什么是offsetof&#xff1f; 1.** 注意&#xff1a;offsetof不是函数而是一个宏** 2. 返回值是size_t无符号整形&#xff0c;头文件是<stddef.h>&#xff0c;参数是&…

智慧工地解决方案,智慧工地平台源码

一、现状描述 建筑工程建设具有明显的生产规模大宗性与生产场所固定性的特点。建筑企业70%左右的工作都发生在施工现场&#xff0c;施工阶段的现场管理对工程成本、进度、质量及安全等至关重要。同时随着工程建设规模不断扩大&#xff0c;工艺流程纷繁复杂&#xff0c;如何搞好…

腾讯云我的世界mc服务器多少钱一年?

腾讯云我的世界mc服务器多少钱&#xff1f;95元一年2核2G3M轻量应用服务器、2核4G5M带宽优惠价218元一年、4核8G12M带宽轻量服务器446元一年&#xff0c;云服务器CVM标准型S5实例2核2G优惠价280元一年、2核4G配置服务器748元一年&#xff0c;腾讯云百科txybk.com分享腾讯云我的…

Spring MVC 和Spring JDBC

目录 Spring MVC MVC模式 核心组件 工作流程 Spring JDBC Spring JDBC功能和优势 Spring JDBC的关键组件 Spring MVC Spring MVC&#xff08;Model-View-Controller&#xff09;是Spring框架的一个模块&#xff0c;用于构建Web应用程序。它的主要目标是将Web应用程序的不…

【Python】Python语言基础(上)

第一章 前言 1. Python简介 Python语言并不是新的语言&#xff0c;它早于HTTP 1.0协议5年&#xff0c;早于Java语言 4年。 ​ Python是由荷兰人Guido van Rossum&#xff08;吉多范罗苏姆&#xff09;于1989年圣诞节期间在阿姆斯特丹休假时为了打发无聊的假期而编写的一个脚本…

利用 Amazon CodeWhisperer 激发孩子的编程兴趣

我是一个程序员&#xff0c;也是一个父亲。工作之余我会经常和儿子聊他们小学信息技术课学习的 Scratch 和 Kitten 这两款图形化的少儿编程工具。 我儿子有一次指着书房里显示器上显示的 Visual Studio Code 问我&#xff0c;“为什么我们上课用的开发界面&#xff0c;和爸爸你…

巴以冲突中暴露的摄像头正对安全构成威胁

巴以冲突爆发后&#xff0c;许多配置不当的安全摄像头正暴露给黑客活动分子&#xff0c;使其周遭人员面临巨大安全风险。 Cyber​​news 研究人员发现&#xff0c;在以色列至少有165 个暴露的联网 RTSP 摄像头&#xff0c;在巴勒斯坦有 29 个暴露的 RTSP 摄像头。在巴勒斯坦&am…

CCPlotR | 轻松拿捏单细胞分析之细胞交互!~

1写在前面 周末了各位&#xff0c;昨天去看了奥本海默&#xff0c;不得不说&#xff0c;大神就是大神。&#x1f618; 比起我们的电影&#xff0c;似乎诺兰更好地还原了奥本海默的真实。&#x1f9d0; 言归正传&#xff0c;今天分享的是CCPlotR包&#xff0c;用于基于scRNAseq数…

SwiftUI Swift CoreData 计算某实体某属性总和

有一个名为 Item 的实体&#xff0c;它有一个名为 amount 的 Double 属性&#xff0c;向你的 View 添加一个计算属性&#xff1a; Code: struct ContentView: View {Environment(\.managedObjectContext) private var viewContextFetchRequest(sortDescriptors: [NSSortDescri…

Codeforces Round 903 (Div. 3) C(矩形旋转之后对应的坐标)

题目链接&#xff1a;Codeforces Round 903 (Div. 3) C 题目&#xff1a; 思想&#xff1a; 旋转之后对应的坐标&#xff1a; &#xff08;i&#xff0c;j&#xff09;&#xff08;n1-j&#xff0c;i&#xff09;&#xff08;n1-i&#xff0c;n1-j&#xff09;&#xff08;j…

CSS的布局 Day03

一、显示模式&#xff1a; 网页中HTML的标签多种多样&#xff0c;具有不同的特征。而我们学习盒子模型、使用定位和弹性布局把内容分块&#xff0c;利用CSS布局使内容脱离文本流&#xff0c;使用定位或弹性布局让每块内容摆放在想摆放的位置&#xff0c;让网站页面布局更合理、…

VCAP-DCV VMware vSphere: 运维、扩展和安全防护 [V8.0]

VMware官方授权合作机构&#xff0c;全国招生&#xff01; VCP-DCV VMware vSphere&#xff1a;安装、配置和管理[V8.x]-CSDN博客本课程重点讲授如何安装、配置和理 VMware vSphere 8.0&#xff08;包括 VMware ESXi™ 8.0 和 VMware vCenter Server™ 8.0&#xff09;。使用 …