基于包围框回归的目标检测网络原理及Tensorflow实现

news2024/11/26 14:49:55

对象检测是对图像内的对象进行分类和定位。 换句话说,它是图像分类和对象定位的结合。 构建用于图像分类的机器学习模型更简单,我在我的一篇文章中对此进行了描述。 然而,图像分类器无法准确判断对象在图像内的位置。 为了实现这一目标,我们需要构建一个神经网络,除了对其进行分类之外,它还可以定位图像内的对象。 在这篇文章中,我将描述如何通过解决这两个问题来构建用于对象检测的神经网络。
在这里插入图片描述

推荐:用 NSDT设计器 快速搭建可编程3D场景。

1、检测对象

由于我的目的是从头开始构建模型,而不是在数据准备上花费太多时间,因此我选择了我能想到的最简单的对象。 我的选择是用一块纸板制作一个简单的红色视觉标记。 由于视觉标记只是一个 2D 形状,因此可以捕获它的不同角度是有限的,因此训练集所需的图像数量有限。 我将视觉标记制作成圆形和手掌大小,以便简单且易于操作。

2、模型的架构

在深入讨论实现细节之前,我想先描述一下模型的架构。 首先,我的目标是推断两个答案:

  • 图像中是否有物体
  • 物体的具体位置在哪里

为了解决第一个问题,我可以使用图像分类器——具有两个输出神经元的卷积神经网络。 这些输出神经元之一可以代表物体的存在,而另一个可以代表物体的不存在。 换句话说,图像分类器的输出是不同对象类别之间的概率分布,或者在本例中是对象存在(“圆圈”)或不存在(“无圆圈”)。 然后可以通过在输出层应用 Softmax 函数来确定概率最高的类别。

解决第二个问题则完全不同。 我想要的是通过在对象周围绘制边界框来定位对象。 为此,我必须找到边界框左上角和右下角的像素坐标。 这意味着我的神经网络必须计算出图像内这两个点的 x、y 坐标。 我可以通过设计一个输出层有 4 个神经元(代表 4 个数字坐标值)的卷积神经网络来做到这一点。

在这里插入图片描述

接下来的挑战是使用单个神经网络实现这两个目标。 一方面,解决方案的图像分类器部分将输出神经元的值视为概率分布。 然后它选择概率最高的一个,并将其标签作为答案。 另一方面,解决方案的对象定位部分需要 4 个输出神经元给出实际的边界框坐标。 因此,神经网络很难训练其完全连接的密集层来同时满足这两个要求。 因为,优化分类的权重和偏差会危及本地化的输出,反之亦然。

这个问题的解决方案是设计一个具有两个分支输出的神经网络。 由于必须对两个问题同等地执行特征提取,因此我使卷积层变得通用且可共享。 然而,在卷积层之后,我将网络分为两个——每个都有自己的密集层和输出层,以实现两种不同的结果。

在这里插入图片描述

这种架构允许我用不同的损失函数和激活函数来训练这两个头或分支。 此外,这使我能够使用不同的数据集单独训练它们。 我将在本文后面描述我是如何做到这一点的,以及为什么这样做很重要。

3、数据准备

与任何其他机器学习项目一样,数据准备也是关键。 首先,我将相机配置为将图像分辨率设置为 2160 x 2160,以捕获方形图像。然后,我拍摄了大约 126 张视觉标记照片,将其放置在图像帧内的不同位置,并将其放置在距相机不同的距离处。 此外,我拍摄了他们不同的背景。 训练数据集中的这些变化有助于模型最终实现更准确的预测。
在这里插入图片描述

我又拍了 62 张没有视觉标记的照片。 这样做是为了训练模型来识别标记的缺失。 然后我将所有照片的分辨率调整为 216×216 像素,因为没有必要使用更高分辨率的图像来识别这样一个简单的物体。

4、图像标注

下一步是使用边界框注释视觉标记。 与图像分类器不同,这是构建对象定位器的重要一步。 为此,我使用了名为 VoTT 的免费开源注释工具。

首先,我在 VoTT 中创建了一个名为“视觉标记检测器”的项目,并创建了源连接和目标连接,分别指向我计算机中源图像和生成注释的文件夹位置。
在这里插入图片描述

此外,我创建了一个名为“Circle”的标签(标签),用于注释图像中的视觉标记。
在这里插入图片描述

然后是时候进行不太有趣的图像注释任务了!

在这里插入图片描述

这里跳过了没有视觉标记拍摄的照片。 我将在本文后面描述如何使用这些图像进行训练。 但是,我确保导出设置中的以下设置也被设置为为未分配(未标记)图像生成注释 XML 文件。
在这里插入图片描述

在完成对图像进行注释的繁琐任务后,我使用 VoTT 中的导出选项将所有注释导出为 PASCAL VOC 格式。

5、组织文件夹结构

我将图像和相应的注释 xml 文件分为两组 - 一组代表训练集,另一组代表验证集。

在这里插入图片描述

然后我将它们移动到项目文件夹结构中名为“Images”的父文件夹中。
在这里插入图片描述

6、创建数据集

除了图像及其标签之外,在准备用于训练对象检测器的数据集的过程中使用边界框坐标也很重要。 为此,我使用了一个 python 脚本,该脚本读取 VoTT 生成的所有 xml 文件,并为训练和验证数据集生成两个 CSV 文件。 我编写此脚本的方式是,我可以使用配置变量 — SKIP_NEGATIVE 设置为 True 或 False 来运行它,以排除或包含负片图像(其中不包含对象的图像)。

import os
import glob
import pandas as pd
import xml.etree.ElementTree as ET

SKIP_NEGATIVES = True
NEGATIVE_CLASS = "No-Circle"

def xml_to_csv(path, skipNegatives):
    xml_list = []
    for xml_file in glob.glob(path + '/*.xml'):
        tree = ET.parse(xml_file)
        root = tree.getroot()
        if root.find('object'):
            for member in root.findall('object'):
                bbx = member.find('bndbox')                
                xmin = round(float(bbx.find('xmin').text))
                ymin = round(float(bbx.find('ymin').text))
                xmax = round(float(bbx.find('xmax').text))
                ymax = round(float(bbx.find('ymax').text))
                label = member.find('name').text
                value = (root.find('filename').text,
                        int(root.find('size')[0].text),
                        int(root.find('size')[1].text),
                        label,
                        xmin,
                        ymin,
                        xmax,
                        ymax
                        )
                print(value)
                xml_list.append(value)
        elif not skipNegatives:
            value = (root.find('filename').text,
                        int(root.find('size')[0].text),
                        int(root.find('size')[1].text),
                        NEGATIVE_CLASS,
                        0,
                        0,
                        0,
                        0
                        )
            print(value)
            xml_list.append(value)

    column_name = ['filename', 'width', 'height',
                   'class', 'xmin', 'ymin', 'xmax', 'ymax']
    xml_df = pd.DataFrame(xml_list, columns=column_name)
    return xml_df


def main():
    datasets = ['training', 'validation']

    for ds in datasets:
        image_path = os.path.join(os.getcwd(), 'Images', ds)
        xml_df = xml_to_csv(image_path, SKIP_NEGATIVES)
        xml_df.to_csv('Data/{}_data.csv'.format(ds), index=None)
        print('Successfully converted xml to csv.')


main()

然后,我编写了以下代码,通过读取上述步骤生成的training_data.csv 文件来创建训练数据集。 在这里,我创建了 3 个列表 - 第一个列表用于图像数据数组列表,然后第二个和第三个列表分别用于相应的边界框坐标和图像标签。

TRAINING_CSV_FILE = 'Data/training_data.csv'
TRAINING_IMAGE_DIR = 'Images/Training'

training_image_records = pd.read_csv(TRAINING_CSV_FILE)

train_image_path = os.path.join(os.getcwd(), TRAINING_IMAGE_DIR)

train_images = []
train_targets = []
train_labels = []

for index, row in training_image_records.iterrows():
    
    (filename, width, height, class_name, xmin, ymin, xmax, ymax) = row
    
    train_image_fullpath = os.path.join(train_image_path, filename)
    train_img = keras.preprocessing.image.load_img(train_image_fullpath, target_size=(height, width))
    train_img_arr = keras.preprocessing.image.img_to_array(train_img)
    
    
    xmin = round(xmin/ width, 2)
    ymin = round(ymin/ height, 2)
    xmax = round(xmax/ width, 2)
    ymax = round(ymax/ height, 2)
    
    train_images.append(train_img_arr)
    train_targets.append((xmin, ymin, xmax, ymax))
    train_labels.append(classes.index(class_name))

我也使用相同的代码来加载验证数据集。 然后我使用以下代码将列表转换为 numpy 数组。

train_images = np.array(train_images)
train_targets = np.array(train_targets)
train_labels = np.array(train_labels)
validation_images = np.array(validation_images)
validation_targets = np.array(validation_targets)
validation_labels = np.array(validation_labels)

训练模型时,train_images 数组用作 Keras API 中 Model 类的 fit 方法的输入数据参数(或参数 x)。 然后,数组 — train_targets 和 train_labels 在字典中一起用作 fit 方法的目标参数(或参数 y)。 您将在本文后面注意到这一点。

7、构建模型

然后是时候构建模型了!

首先,我将必要的依赖项导入到脚本中。

import matplotlib.pyplot as plt
import numpy as np
import os
import PIL
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
from tensorflow.keras.models import Sequential
import pathlib
import pandas as pd
from PIL import Image 
from PIL.ImageDraw import Draw

我以变量的形式创建了一些配置参数,并定义了用于模型的类数组。

width = 216
height = 216
num_classes = 2
classes = ["Circle", "No-Circle"]

然后我编写了定义模型的代码。 首先,我定义了输入层,然后定义了一个重新缩放层,将像素数据转换为数值范围 0-1。 然后我创建了卷积层,将一层的输出链接到下一层的输入。 我用前缀“bl_”命名所有这些卷积层,目的是稍后使用这个前缀来获取它们。

#create the common input layer
input_shape = (height, width, 3)
input_layer = tf.keras.layers.Input(input_shape)

#create the base layers
base_layers = layers.experimental.preprocessing.Rescaling(1./255, name='bl_1')(input_layer)
base_layers = layers.Conv2D(16, 3, padding='same', activation='relu', name='bl_2')(base_layers)
base_layers = layers.MaxPooling2D(name='bl_3')(base_layers)
base_layers = layers.Conv2D(32, 3, padding='same', activation='relu', name='bl_4')(base_layers)
base_layers = layers.MaxPooling2D(name='bl_5')(base_layers)
base_layers = layers.Conv2D(64, 3, padding='same', activation='relu', name='bl_6')(base_layers)
base_layers = layers.MaxPooling2D(name='bl_7')(base_layers)
base_layers = layers.Flatten(name='bl_8')(base_layers)

其次,我根据之前讨论的架构通过输入卷积层的扁平输出来定义分类分支层。 这里我只添加了两个密集层——一层有 128 个神经元,最后一层只有 2 个神经元,对应于我们必须预测的两个类标签。 此外,我为分类分支的层添加了前缀“cl_”。

#create the classifier branch
classifier_branch = layers.Dense(128, activation='relu', name='cl_1')(base_layers)
classifier_branch = layers.Dense(num_classes, name='cl_head')(classifier_branch)  

第三,我再次定义本地化分支层,输入卷积层的平坦输出。 在这里,我添加了 4 个独立的密集层,神经元数量逐渐减少,最后一层有 4 个神经元,对应于用于预测的 4 个边界框坐标值。 该分支中的层以前缀“bb_”命名。

#create the localiser branch
locator_branch = layers.Dense(128, activation='relu', name='bb_1')(base_layers)
locator_branch = layers.Dense(64, activation='relu', name='bb_2')(locator_branch)
locator_branch = layers.Dense(32, activation='relu', name='bb_3')(locator_branch)
locator_branch = layers.Dense(4, activation='sigmoid', name='bb_head')(locator_branch)

最后,是时候通过传递输入层和两个输出分支来创建模型类了。 这是我们将两个输出分支焊接到基本模型中的地方。

model = tf.keras.Model(input_layer,
           outputs=[classifier_branch,locator_branch])

模型的摘要如下所示:
在这里插入图片描述

8、编译模型

由于两个输出分支的设计目的是实现两种不同的结果(一个输出概率分布,另一个预测实际的边界框值),因此有必要为每个分支设置适当的损失函数。 我对分类头使用了稀疏分类交叉熵损失函数,对定位头使用了均方误差 (MSE)。 我通过定义以下字典来实现这一点。

losses = 
  {"cl_head":tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), 
   "bb_head":tf.keras.losses.MSE}

然后我将其与 Adam 优化方法一起使用并编译了模型。

model.compile(loss=losses, optimizer='Adam', metrics=['accuracy'])

9、训练本地化模型—边界框回归

正如我在模型架构部分中所描述的,我的计划是首先训练模型进行对象本地化。 在训练的这一部分期间,模型的定位分支将执行边界框回归,然后调整其权重和偏差以优化边界框预测。

这里重要的是,我仅使用带注释的图像(仅具有视觉标记的图像)来训练模型的定位部分。 我通过运行 CSV 生成脚本(将 SKIP_NEGATIVES 参数设置为 True)来实现此目的,然后再运行上面数据集创建部分中所述的数据集生成代码。

在训练定位分支时跳过负图像(没有视觉标记的图像)的原因是,否则它会影响边界框预测的准确性。 因为我们必须设置虚拟边界框坐标值 - 例如,如果我们也在训练数据集中使用负图像,则为 (0,0) (0,0)。 例如,下图显示了如果我们使用训练集中的正图像和负图像进行训练,则本地化分支的训练性能如何。
在这里插入图片描述

然而,仅使用正图像来训练定位分支的缺点是它会给负图像带来误报。 但由于我无意依赖本地化分支来确定视觉标记是否存在,所以这对我来说不是问题。

我使用以下代码定义了两个字典对象,用于两个命名分支 cl_head 和 bb_head 的训练和验证目标。 在这里,你会注意到标签数组用于分类分支,边界框坐标数组用于本地化分支。

trainTargets = {
    "cl_head": train_labels,
    "bb_head": train_targets
}
validationTargets = {
    "cl_head": validation_labels,
    "bb_head": validation_targets
}

我最初将 epoch 数设置为 20,将 batch_size 设置为 4。 然后我运行以下代码来训练模型。

history = model.fit(train_images, trainTargets,
             validation_data=(validation_images, validationTargets),
             batch_size=4,
             epochs=training_epochs,
             shuffle=True,
             verbose=1)

下图展示了两个分支的训练表现。

在这里插入图片描述

你会在上面的图表中注意到本地化分支的表现相当不错。 然而,分类分支所达到的准确度好得令人难以置信。 它的表现并不值得信赖,因为迄今为止还没有看到任何负面形象。 这意味着模型(它的分类部分)将始终将它所看到的内容分类为“视觉标记”,因为它从未见过没有它的任何东西。

然而,即使在这个阶段,模型仍然能够准确地预测边界框。
在这里插入图片描述

但话又说回来,当用于负图像时,它会给出误报,并按预期给出一些随机边界框坐标。
在这里插入图片描述

这就是我接下来想要通过训练分类分支来解决的问题。

10、训练分类模型

然后是时候训练模型的分类分支了。

这里的区别在于,我们需要使用正图像和负图像来训练分类器,因为模型需要学习图像的存在和不存在才能正确地对它看到的图像进行分类。

为了实现此目的,我再次运行 CSV 生成脚本,不过这次将 SKIP_NEGATIVES 参数设置为 False。 这会生成包含正片和负片图像记录的 CSV 文件。 对于负片图像,它创建了边界框坐标全零的记录,并分配了标签 - “No-Circle”作为标签。
在这里插入图片描述

创建新数据集的其余步骤与创建用于训练本地化分支的数据集相同。

在第二阶段训练模型之前我做的另一件重要的事情是保留已经训练好的卷积层和定位分支的权重和偏差。 因为,否则使用不同图像集的新一轮训练可能会危及这些层已经训练的权重和偏差,从而导致性能下降。 解决方案是在使用新数据集训练分类分支之前冻结卷积层和边界框分支。

我通过使用各自的前缀获取基础层和本地化分支层并将每层的可训练属性设置为 False 来实现这一点。

for layer in model.layers:
    if layer.name.startswith('bl_'):
        layer.trainable = False
        
for layer in model.layers:
    if layer.name.startswith('bb_'):
        layer.trainable = False

在此步骤之后,模型中存在大量不可训练的参数。 这在模型的摘要中可见。
在这里插入图片描述

然后我使用包括正图像和负图像的第二个数据集来训练模型。 由于基础层和本地化分支层被冻结,它基本上只能训练本地化层。 仅 20 个 epoch 的分类分支的训练性能就不算太差,如下图所示。
在这里插入图片描述

11、使用模型进行物体检测

接下来是使用模型进行一些预测的有趣部分。

我使用了一组使用和不使用视觉标记拍摄的新照片来测试一些预测。 这里,定位器输出总是给出一个边界框,即使其中没有视觉标记。 但这在应用程序中不是问题,因为我们始终可以首先依赖分类输出,了解图像中是否存在对象,然后避免绘制边界框(如果不存在)。 在 Jupyter Notebook 中显示以下图像及其边界框时,我使用了相同的技术。
在这里插入图片描述

12、结束语

这个练习向我证明,我们可以从头开始构建一个简单的单类对象检测器,而无需依赖大型预训练模型。 其次,双输出架构和不同数据集的两阶段训练是实现这一结果的关键。 该模型给出了一些误报和漏报,但这主要是由于训练数据集有限和非最佳超参数造成的。 通过调整超参数和使用更大的训练数据集,我们将能够获得更好的结果。


原文链接:基于包围框回归的目标检测 — BimAnt

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/784828.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

opencv对相机进行畸变矫正,及从矫正后的图像坐标反求原来的对应坐标

1.背景 目前有个项目,需要用到热成像相机。但是这个热成像相机它的畸变比较厉害,因此需要用标定板进行标定,从而消除镜头畸变。 同时需要实现用户用鼠标点击矫正后的画面后,显示用户点击位置的像素所代表的温度。 2.难点 消除镜…

1-1 AUTOSAR是什么?

目录 一、AUTOSAR组织 二、AUTOSAR的版本 三、AUTOSAR的理念 四、AUTOSAR的动机 五、AUTOSAR目标 六、AUTOSAR的优势 6.1 商业优势 6.2 技术优势 一、AUTOSAR组织 AUTOSAR(Automotive Open System Architecture)是一个全球性的汽车行业标准化组织…

【流形和流形空间(姿态)】

定义 流形(Manifold)是一种广义的曲面概念,用于描述局部上类似于欧几里德空间的空间。简而言之,流形是一个局部与欧几里德空间同胚(homeomorphic)的空间,但并不一定是全局上同胚的。&#xff0…

Springboot项目打包war配置详解

Springboot项目打包war配置详解 1. 排除内置tomcat依赖2. 添加servlet依赖3. 修改打包方式4. 修改主启动类5. 完整pom.xml6. 效果图 1. 排除内置tomcat依赖 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter…

Keil系列教程08_Configuration(二)

1写在前面 本文接着上一篇文章《Keil系列教程07_Configuration&#xff08;一&#xff09;》讲述的工程目标选项的后三项配置&#xff1a;Shortcut Keys快捷键、Text Completion代码完形、Other其他。 这后面三部分内容在该系列教程其它也会牵涉&#xff0c;也是一些常用、重要…

【数字信号处理】带通采样定理及其MATLAB仿真

目录 一、带通采样定理1.1 内容1.2 公式推导 二、MATLAB信号仿真2.1 信号仿真实验2.2 MATLAB代码 三、总结参考 一、带通采样定理 按照奈奎斯特采样定理(低通采样)&#xff0c;采样频率 f s f_{s} fs​ 要大于等于信号中最高频率 f m a x f_{max} fmax​ 的2倍&#xff0c;才…

excel导入,错误数据excel导出

要实现功能&#xff0c;非空校验&#xff0c;如果为空 则下载错误excel&#xff0c;说明错误原因 导入实体 Data AllArgsConstructor NoArgsConstructor public class ExcelDto implements Serializable{/*** 用户名*/ExcelProperty("用户名")private String user…

JVM系统优化实践(22):GC生产环境案例(五)

您好&#xff0c;这里是「码农镖局」CSDN博客&#xff0c;欢迎您来&#xff0c;欢迎您再来&#xff5e; 除了Tomcat、Jetty&#xff0c;另一个常见的可能出现OOM的地方就是微服务架构下的一次RPC调用过程中。笔者曾经经历过的一次OOM就是基于Thrift框架封装出来的一个RPC框架导…

SAP中文界面乱码问题的分析处理实例

近期遇到用户反映主题问题&#xff0c;如下图这样的中文乱码在SAP的菜单和功能界面中随处可见。 经过一系分析检查发现导致问题的原因在于操作系统中的区域格式语言设置&#xff0c;这里用户设置是中文&#xff0c;简体汉字&#xff0c;香港特别行政区。将其变更为中文&#xf…

了解Unity编辑器之组件篇Video(二)

Video Player组件&#xff1a;用于在游戏中播放视频的组件。它提供了一系列属性来控制视频的播放、显示和交互。 1.Source&#xff08;视频源&#xff09;&#xff1a;用于指定视频的来源。可以选择两种不同的视频源类型&#xff1a; &#xff08;1&#xff09;Vieo Clip&#…

如何看待现在的 IT 行业,秋招来临,新人们又该怎么应对?

如何看待现在的 IT 行业&#xff0c;秋招来临&#xff0c;新人们又该怎么应对&#xff1f; 前言24届校招将开启easy模式&#xff1f;IT行业相比其他专业还有优势吗&#xff1f;IT行业真的不看学历吗&#xff1f;面试老不过&#xff0c;我是不是太菜了&#xff1f;怎么看待35岁裁…

【docker】docker部署mysql

目录 一、步骤二、说明三、步骤 一、步骤 1.搜索mysql镜像 2.拉取mysql镜像 3.创建容器 4.操作容器中的mysql 二、说明 1.容器内的网络服务和外部机器不能直接通信 2.容器中部署的mysql端口3306不能被外部机器和宿主机直接通信 3.外部机器和宿主机之间可以直接通信 4.宿主机和…

【Nodejs】Node.js简介

1.前言 Node 的重要性已经不言而喻&#xff0c;很多互联网公司都已经有大量的高性能系统运行在 Node 之上。Node 凭借其单线程、异步等举措实现了极高的性能基准。此外&#xff0c;目前最为流行的 Web 开发模式是前后端分离的形式&#xff0c;即前端开发者与后端开发者在自己喜…

Chatgpt Web API 创建对话,免费,不计token数量,模仿网页提交对话

Chatgpt API 是收费的&#xff0c;按token使用量计费 Chatgpt Web API 免费的&#xff0c;只要有账号就可以使用。 curl https://chat.openai.com/backend-api/conversation \-H authority: chat.openai.com \-H accept: text/event-stream \-H accept-language: zh-CN,zh;q…

项目:点餐系统1

项目简介&#xff1a;实现一个http点餐系统服务器&#xff0c;能够支持用户在浏览器访问服务器获取餐馆首页&#xff0c;进行菜品以及订单管理。 具体模型如下&#xff1a; 用户分类&#xff1a; 管理员&#xff1a;进行订单以及菜品管理&#xff08;菜品&订单的增删改查&a…

【NLP】BERT,BART和T5等LLM模型的比较

一、介绍 在这篇博文中&#xff0c;我将讨论像BERT&#xff0c;BART和T5这样的大型语言模型。到2020年&#xff0c;LLM领域取得的主要进展包括这些模型的开发。BERT和T5由Google开发&#xff0c;BART由Meta开发。我将根据这些模型的发布日期依次介绍这些模型的详细信息。在之前…

thinkphp实现无限分类(使用递归)

thinkphp实现无限分类&#xff08;使用递归&#xff09; 本文实例为大家分享了thinkphp实现无限分类的详细代码&#xff0c;希望对大家学习无限分类有所启发。 数据库&#xff1a;test 数据表&#xff1a;&#xff08;tp_category&#xff09;&#xff1a; Common/conf/conf…

Python如何读写配置文件?

目录 什么是配置文件 常见的配置文件格式 为什么要使用配置文件 Python如何读写配置文件&#xff1f; 什么是配置文件 配置文件是用于存储程序或系统的设置和配置选项的文本文件。它通常以特定的格式编写&#xff0c;以便程序或系统可以读取和解析其中的配置信息。配置文件…

汽车资讯新闻网站nodejs+vue

本汽车资讯网站有管理员和用户。管理员功能有个人中心&#xff0c;用户管理&#xff0c;汽车品牌管理&#xff0c;价格分类管理&#xff0c;经销商管理&#xff0c;汽车信息管理&#xff0c;留言板管理&#xff0c;系统管理等。用户可以查看各种汽车信息&#xff0c;还可以进行…

Spring 中一个少见的引介增强 IntroductionAdvisor

我们平时做 AOP 开发的时候&#xff0c;基本上都是增强某一个方法&#xff0c;在某一个方法执行之前或者执行之后做一些事情&#xff0c;这种叫做 PointcutAdvisor&#xff0c;实际上&#xff0c;Spring 中的 Advisor 大致可以分为两种类型&#xff0c;除了 PointcutAdvisor 之…