图片去摩尔纹简述实现python代码示例

news2024/11/24 2:12:33

这篇文章主要为大家介绍了图片去摩尔纹简述实现的python代码示例,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪

1、前言

当感光元件像素的空间频率与影像中条纹的空间频率接近时,可能产生一种新的波浪形的干扰图案,即所谓的摩尔纹。传感器的网格状纹理构成了一个这样的图案。当图案中的细条状结构与传感器的结构以小角度交叉时,这种效应也会在图像中产生明显的干扰。这种现象在一些细密纹理情况下,比如时尚摄影中的布料上,非常普遍。这种摩尔纹可能通过亮度也可能通过颜色来展现。但是在这里,仅针对在翻拍过程中产生的图像摩尔纹进行处理。

翻拍即从计算机屏幕上捕获图片,或对着屏幕拍摄图片;该方式会在图片上产生摩尔纹现象

论文主要处理思路

  • 对原图作Haar变换得到四个下采样特征图(原图下二采样cA、Horizontal横向高频cH、Vertical纵向高频cV、Diagonal斜向高频cD)
  • 然后分别利用四个独立的CNN对四个下采样特征图卷积池化,提取特征信息
  • 原文随后对三个高频信息卷积池化后的结果的每个channel、每个像素点比对,取max
  • 将上一步得到的结果和cA卷积池化后的结果作笛卡尔积

2、网络结构复现

  如下图所示,本项目复现了论文的图像去摩尔纹方法,并对数据处理部分进行了修改,并且网络结构上也参考了源码中的结构,对图片产生四个下采样特征图,而不是论文中的三个,具体处理方式大家可以参考一下网络结构。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

import math

import paddle

import paddle.nn as nn

import paddle.nn.functional as F

# import pywt

from paddle.nn import Linear, Dropout, ReLU

from paddle.nn import Conv2D, MaxPool2D

class mcnn(nn.Layer):

    def __init__(self, num_classes=1000):

        super(mcnn, self).__init__()

        self.num_classes = num_classes

        self._conv1_LL = Conv2D(3,32,7,stride=2,padding=1,)     

        # self.bn1_LL = nn.BatchNorm2D(128)

        self._conv1_LH = Conv2D(3,32,7,stride=2,padding=1,) 

        # self.bn1_LH = nn.BatchNorm2D(256)

        self._conv1_HL = Conv2D(3,32,7,stride=2,padding=1,)

        # self.bn1_HL = nn.BatchNorm2D(512)

        self._conv1_HH = Conv2D(3,32,7,stride=2,padding=1,)

        # self.bn1_HH = nn.BatchNorm2D(256)

        self.pool_1_LL = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self.pool_1_LH = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self.pool_1_HL = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self.pool_1_HH = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self._conv2 = Conv2D(32,16,3,stride=2,padding=1,)

        self.pool_2 = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self.dropout2 = Dropout(p=0.5)

        self._conv3 = Conv2D(16,32,3,stride=2,padding=1,)

        self.pool_3 = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self._conv4 = Conv2D(32,32,3,stride=2,padding=1,)

        self.pool_4 = nn.MaxPool2D(kernel_size=2,stride=2, padding=0)

        self.dropout4 = Dropout(p=0.5)

        # self.bn1_HH = nn.BatchNorm1D(256)

        self._fc1 = Linear(in_features=64,out_features=num_classes)

        self.dropout5 = Dropout(p=0.5)

        self._fc2 = Linear(in_features=2,out_features=num_classes)

    def forward(self, inputs1, inputs2, inputs3, inputs4):

        x1_LL = self._conv1_LL(inputs1)

        x1_LL = F.relu(x1_LL)

        x1_LH = self._conv1_LH(inputs2)

        x1_LH = F.relu(x1_LH)

        x1_HL = self._conv1_HL(inputs3)

        x1_HL = F.relu(x1_HL)

        x1_HH = self._conv1_HH(inputs4)

        x1_HH = F.relu(x1_HH)

        pool_x1_LL = self.pool_1_LL(x1_LL)

        pool_x1_LH = self.pool_1_LH(x1_LH)

        pool_x1_HL = self.pool_1_HL(x1_HL)

        pool_x1_HH = self.pool_1_HH(x1_HH)

        temp = paddle.maximum(pool_x1_LH, pool_x1_HL)

        avg_LH_HL_HH = paddle.maximum(temp, pool_x1_HH)

        inp_merged = paddle.multiply(pool_x1_LL, avg_LH_HL_HH)

        x2 = self._conv2(inp_merged)

        x2 = F.relu(x2)

        x2 = self.pool_2(x2)

        x2 = self.dropout2(x2)

        x3 = self._conv3(x2)

        x3 = F.relu(x3)

        x3 = self.pool_3(x3)

        x4 = self._conv4(x3)

        x4 = F.relu(x4)

        x4 = self.pool_4(x4)

        x4 = self.dropout4(x4)

        x4 = paddle.flatten(x4, start_axis=1, stop_axis=-1)

        x5 = self._fc1(x4)

        x5 = self.dropout5(x5)

        out = self._fc2(x5)

        return out

model_res = mcnn(num_classes=2)

paddle.summary(model_res,[(1,3,512,384),(1,3,512,384),(1,3,512,384),(1,3,512,384)])

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

---------------------------------------------------------------------------

 Layer (type)       Input Shape          Output Shape         Param #   

===========================================================================

   Conv2D-1      [[1, 3, 512, 384]]   [1, 32, 254, 190]        4,736    

   Conv2D-2      [[1, 3, 512, 384]]   [1, 32, 254, 190]        4,736    

   Conv2D-3      [[1, 3, 512, 384]]   [1, 32, 254, 190]        4,736    

   Conv2D-4      [[1, 3, 512, 384]]   [1, 32, 254, 190]        4,736    

  MaxPool2D-1   [[1, 32, 254, 190]]    [1, 32, 127, 95]          0      

  MaxPool2D-2   [[1, 32, 254, 190]]    [1, 32, 127, 95]          0      

  MaxPool2D-3   [[1, 32, 254, 190]]    [1, 32, 127, 95]          0      

  MaxPool2D-4   [[1, 32, 254, 190]]    [1, 32, 127, 95]          0      

   Conv2D-5      [[1, 32, 127, 95]]    [1, 16, 64, 48]         4,624    

  MaxPool2D-5    [[1, 16, 64, 48]]     [1, 16, 32, 24]           0      

   Dropout-1     [[1, 16, 32, 24]]     [1, 16, 32, 24]           0      

   Conv2D-6      [[1, 16, 32, 24]]     [1, 32, 16, 12]         4,640    

  MaxPool2D-6    [[1, 32, 16, 12]]      [1, 32, 8, 6]            0      

   Conv2D-7       [[1, 32, 8, 6]]       [1, 32, 4, 3]          9,248    

  MaxPool2D-7     [[1, 32, 4, 3]]       [1, 32, 2, 1]            0      

   Dropout-2      [[1, 32, 2, 1]]       [1, 32, 2, 1]            0      

   Linear-1          [[1, 64]]              [1, 2]              130     

   Dropout-3          [[1, 2]]              [1, 2]               0      

   Linear-2           [[1, 2]]              [1, 2]               6      

===========================================================================

Total params: 37,592

Trainable params: 37,592

Non-trainable params: 0

---------------------------------------------------------------------------

Input size (MB): 9.00

Forward/backward pass size (MB): 59.54

Params size (MB): 0.14

Estimated Total Size (MB): 68.68

---------------------------------------------------------------------------

{'total_params': 37592, 'trainable_params': 37592}

3、数据预处理

  与源代码不同的是,本项目将图像的小波分解部分集成在了数据读取部分,即改为了线上进行小波分解,而不是源代码中的线下进行小波分解并且保存图片。首先,定义小波分解的函数

1

!pip install PyWavelets

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

import numpy as np

import pywt

def splitFreqBands(img, levRows, levCols):

    halfRow = int(levRows/2)

    halfCol = int(levCols/2)

    LL = img[0:halfRow, 0:halfCol]

    LH = img[0:halfRow, halfCol:levCols]

    HL = img[halfRow:levRows, 0:halfCol]

    HH = img[halfRow:levRows, halfCol:levCols]

    return LL, LH, HL, HH

def haarDWT1D(data, length):

    avg0 = 0.5;

    avg1 = 0.5;

    dif0 = 0.5;

    dif1 = -0.5;

    temp = np.empty_like(data)

    # temp = temp.astype(float)

    temp = temp.astype(np.uint8)

    h = int(length/2)

    for i in range(h):

        k = i*2

        temp[i] = data[k] * avg0 + data[k + 1] * avg1;

        temp[i + h] = data[k] * dif0 + data[k + 1] * dif1;

    data[:] = temp

# computes the homography coefficients for PIL.Image.transform using point correspondences

def fwdHaarDWT2D(img):

    img = np.array(img)

    levRows = img.shape[0];

    levCols = img.shape[1];

    # img = img.astype(float)

    img = img.astype(np.uint8)

    for i in range(levRows):

        row = img[i,:]

        haarDWT1D(row, levCols)

        img[i,:] = row

    for j in range(levCols):

        col = img[:,j]

        haarDWT1D(col, levRows)

        img[:,j] = col

    return splitFreqBands(img, levRows, levCols)

1

!cd "data/data188843/" && unzip -q 'total_images.zip'

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

import os

recapture_keys = [ 'ValidationMoire']

original_keys = ['ValidationClear']

def get_image_label_from_folder_name(folder_name):

    """

    :param folder_name:

    :return:

    """

    for key in original_keys:

        if key in folder_name:

            return 'original'

    for key in recapture_keys:

        if key in folder_name:

            return 'recapture'

    return 'unclear'

label_name2label_id = {

    'original': 0,

    'recapture': 1,}

src_image_dir = "data/data188843/total_images"

dst_file = "data/data188843/total_images/train.txt"

image_folder = [file for file in os.listdir(src_image_dir)]

print(image_folder)

image_anno_list = []

for folder in image_folder:

    label_name = get_image_label_from_folder_name(folder)

    # label_id = label_name2label_id.get(label_name, 0)

    label_id = label_name2label_id[label_name]

    folder_path = os.path.join(src_image_dir, folder)

    image_file_list = [file for file in os.listdir(folder_path) if

                        file.endswith('.jpg') or file.endswith('.jpeg') or

                        file.endswith('.JPG') or file.endswith('.JPEG') or file.endswith('.png')]

    for image_file in image_file_list:

        # if need_root_dir:

        #     image_path = os.path.join(folder_path, image_file)

        # else:

        image_path = image_file

        image_anno_list.append(folder +"/"+image_path +"\t"+ str(label_id) + '\n')

dst_path = os.path.dirname(src_image_dir)

if not os.path.exists(dst_path):

    os.makedirs(dst_path)

with open(dst_file, 'w') as fd:

    fd.writelines(image_anno_list)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

import paddle

import numpy as np

import pandas as pd

import PIL.Image as Image

from paddle.vision import transforms

# from haar2D import fwdHaarDWT2D

paddle.disable_static()

# 定义数据预处理

data_transforms = transforms.Compose([

    transforms.Resize(size=(448,448)),

    transforms.ToTensor(), # transpose操作 + (img / 255)

    # transforms.Normalize(      # 减均值 除标准差

    #     mean=[0.31169346, 0.25506335, 0.12432463],       

    #     std=[0.34042713, 0.29819837, 0.1375536])

    #计算过程:output[channel] = (input[channel] - mean[channel]) / std[channel]

])

# 构建Dataset

class MyDataset(paddle.io.Dataset):

    """

    步骤一:继承paddle.io.Dataset类

    """

    def __init__(self, train_img_list, val_img_list, train_label_list, val_label_list, mode='train', ):

        """

        步骤二:实现构造函数,定义数据读取方式,划分训练和测试数据集

        """

        super(MyDataset, self).__init__()

        self.img = []

        self.label = []

        # 借助pandas读csv的库

        self.train_images = train_img_list

        self.test_images = val_img_list

        self.train_label = train_label_list

        self.test_label = val_label_list

        if mode == 'train':

            # 读train_images的数据

            for img,la in zip(self.train_images, self.train_label):

                self.img.append('/home/aistudio/data/data188843/total_images/'+img)

                self.label.append(paddle.to_tensor(int(la), dtype='int64'))

        else:

            # 读test_images的数据

            for img,la in zip(self.test_images, self.test_label):

                self.img.append('/home/aistudio/data/data188843/total_images/'+img)

                self.label.append(paddle.to_tensor(int(la), dtype='int64'))

    def load_img(self, image_path):

        # 实际使用时使用Pillow相关库进行图片读取即可,这里我们对数据先做个模拟

        image = Image.open(image_path).convert('RGB')

        # image = data_transforms(image)

        return image

    def __getitem__(self, index):

        """

        步骤三:实现__getitem__方法,定义指定index时如何获取数据,并返回单条数据(训练数据,对应的标签)

        """

        image = self.load_img(self.img[index])

        LL, LH, HL, HH = fwdHaarDWT2D(image)

        label = self.label[index]

        # print(LL.shape)

        # print(LH.shape)

        # print(HL.shape)

        # print(HH.shape)

        LL = data_transforms(LL)

        LH = data_transforms(LH)

        HL = data_transforms(HL)

        HH = data_transforms(HH)

        print(type(LL))

        print(LL.dtype)

        return LL, LH, HL, HH, np.array(label, dtype='int64')

    def __len__(self):

        """

        步骤四:实现__len__方法,返回数据集总数目

        """

        return len(self.img)

image_file_txt = '/home/aistudio/data/data188843/total_images/train.txt'

with open(image_file_txt) as fd:

    lines = fd.readlines()

train_img_list = list()

train_label_list = list()

for line in lines:

    split_list = line.strip().split()

    image_name, label_id = split_list

    train_img_list.append(image_name)

    train_label_list.append(label_id)

# print(train_img_list)

# print(train_label_list)

# 测试定义的数据集

train_dataset = MyDataset(mode='train',train_label_list=train_label_list,  train_img_list=train_img_list, val_img_list=train_img_list, val_label_list=train_label_list)

# test_dataset = MyDataset(mode='test')

# 构建训练集数据加载器

train_loader = paddle.io.DataLoader(train_dataset, batch_size=2, shuffle=True)

# 构建测试集数据加载器

valid_loader = paddle.io.DataLoader(train_dataset, batch_size=2, shuffle=True)

print('=============train dataset=============')

for LL, LH, HL, HH, label in train_dataset:

    print('label: {}'.format(label))

    break

4、模型训练

1

2

3

4

5

6

7

8

9

model2 = paddle.Model(model_res)

model2.prepare(optimizer=paddle.optimizer.Adam(parameters=model2.parameters()),

              loss=nn.CrossEntropyLoss(),

              metrics=paddle.metric.Accuracy())

model2.fit(train_loader,

        valid_loader,

        epochs=5,

        verbose=1,

        )

总结

本项目主要介绍了如何使用卷积神经网络去检测翻拍图片,主要为摩尔纹图片;其主要创新点在于网络结构上,将图片的高低频信息分开处理。

在本项目中,CNN 仅使用 1 级小波分解进行训练。 可以探索对多级小波分解网络精度的影响。 CNN 模型可以用更多更难的例子和更深的网络进行训练。

点击拿去
50G+学习视频教程
100+Python初阶、中阶、高阶电子书籍

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/448433.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

分布式系统需要关注的技术点和面试经常问的点

1、分布式系统概述 关于什么是分布式系统,有很多文章介绍,其实这个并不难理解,大白话讲就是:工厂活多了一个人撑不住,那就多找些工人一起干,要让这么多人为了一个目标干得快干得好,就需要一些规…

自主可控智能网联汽车操作系统

开发自主可控智能网联汽车操作系统的必要性 当下,传统汽车操作系统行业的核心技术几乎由国外的黑莓、谷歌、风河、Vector、ETAS等垄断。操作系统已成为我国智能网联汽车发展过程中的关键卡脖子技术,开发自主可控的智能网联汽车操作系统势在必行。 操作…

CVPR 2023 | 达摩院REALY头部重建榜单冠军模型HRN解读

团队模型、论文、博文、直播合集,点击此处浏览 前言 高保真 3D 头部重建在许多场景中都有广泛的应用,例如 AR/VR、医疗、电影制作等。尽管大量的工作已经使用 LightStage 等专业硬件实现了出色的重建效果,从单一或稀疏视角的单目图像估计高精…

微服务架构设计与实践

随着互联网的发展,软件开发已经成为各种企业发展的重要手段。然而,单体应用在长时间的维护中会变得复杂、难以扩展、难以修改。因此,为了满足业务需求,微服务架构应运而生。本篇文章将深入探讨微服务架构的设计与实践。 一、微服务…

C++中的类与对象

类与对象 我们在C语言中自定义的struct 叫做结构体,而在C中我们把struct升级为了类,并且还加入了一个class,也称为类,那么我们今天就来看一下结构体和类的不同和相同 1.结构体与类 我们在C语言中的结构体是struct,而…

QT学习笔记(持续更新)

QT 一、按钮 1.效果 2.代码 #include<QPushButton>//头文件myWidget::myWidget(QWidget *parent): QWidget(parent) {//方法1QPushButton *btnnew QPushButton;//btn->show();//以顶层方式显示btn->setParent(this);//在myWidget窗口中btn->setText("按钮…

JS编程中的API hook

JavaScript奇技淫巧&#xff1a;Hook与反Hook 作者&#xff1a;专注于JS混淆加密的 JShaman API HOOK技术&#xff0c;在PC时代曾盛行&#xff0c;是高端的技术。在JavaScript编程中&#xff0c;也可以应用API Hook技术实现不寻常的效果。 例&#xff0c;eval hook&#xff1a…

Kotlin 基础 笔记

这里写目录标题 变量函数条件语句if/else 语句when 语句if/else 表达式 和 when 表达式 Kotlin 中的null使用 ?: Elvis 运算符 类和对象构造函数类之间的关系可见性修饰符定义属性委托 变量 变量是存储单项数据的容器&#xff0c;必须先声明变量&#xff0c;才可以使用。 常见…

Centos7.5 如何安装Bacula 11.05详细教程

环境: 本地华为桌面云服务器环境 Centos 7.5 Bacula 11.05 问题描述: Centos7.5 如何安装Bacula 解决方案: 一、官网下载Bacula 1.下载Source Files11.0.5 2.先安装C 和 C++ 编译器 root@localhost ~]# yum install -y gcc gcc-c++ 1 已安装: 2 gcc.x86_64 0:…

梦想云图Node.JS服务(2023.4.19)

说明 后台提供梦想Node.JS服务&#xff0c;方便调用控件后台功能&#xff0c;Windows服务程序所在目录:Bin\MxDrawServer\Windows&#xff0c;Linux服务程序所在目录:Bin\Linux\MxDrawServer 启动服务 Windows:进入Bin\MxDrawServer\Windows目录&#xff0c;运行start.bat启动…

redis原理及进化之路

Redis 的主从复制经历了多次演进&#xff0c;本文将从最基本的原理和实现讲起&#xff0c;并层层递进&#xff0c;逐步呈现 Redis 主从复制的演进历史。大家将了解到 Redis 主从复制的原理&#xff0c;以及各个改进版本解决了什么问题&#xff0c;并最终看清 Redis 7.0 主从复制…

vue+uniapp疫苗预约接种系统 微信小程序

统计分析&#xff1a;查看用户&#xff0c;疫苗&#xff0c;订单数量&#xff1b;统计近7日&#xff0c;30日订单趋势 用户管理&#xff1a;查看注册用户信息&#xff0c;及删除&#xff08;数据库mysql) 疫苗管理&#xff1a;疫苗增删改查以及上下架 接种点管理&#xff1a;接…

vue3.0 详细说明+案例 !!!

提示&#xff1a;vue3.0 文章目录 前言一、pandas是什么&#xff1f;二、使用步骤 1.引入库2.读入数据总结 前言 提示&#xff1a;Vuee.js的最新版本。它提供了一系列全新的特性&#xff0c;包括更快的渲染速度、更好的Tree Shaking支持以及更好的TypeScript支持。 最重要的特性…

centos7重启后/etc/rc.local中的脚本没有执行

前阵子自己安装了WMware16、centos7&#xff0c;配置好jdk、mysql、nginx、redis并设置好开机自动启动后&#xff0c;打算将服务也做成自启动&#xff0c;因为之前做过本以为会很顺利&#xff0c;结果整了快两小时&#xff0c;觉得有必要记录下。 之前自己记录的博客&#xff…

Faster RCNN系列5——RoI Pooling与全连接层

Faster RCNN系列&#xff1a; Faster RCNN系列1——Anchor生成过程 Faster RCNN系列2——RPN的真值与预测值概述 Faster RCNN系列3——RPN的真值详解与损失值计算 Faster RCNN系列4——生成Proposal与RoI Faster RCNN系列5——RoI Pooling与全连接层 在RPN网络中&#xff0c;已…

融云出海赋能会干货回顾(二)| 地区、赛道选择和避坑攻略

“出海是这个时代给我们的机遇。”这是很多互联网出海人的心声。关注【融云全球互联网通信云】了解更多 走过跌宕起伏的 15 年出海历程&#xff0c;中国出海人现在面对与此前截然不同的市场环境&#xff0c;很多地区蓝海不再&#xff0c;也有不少赛道变得拥挤。 一体两面&…

交友项目【动态点赞动态喜欢】

目录 1&#xff1a;点赞 1.1&#xff1a;动态点赞 1.1.1&#xff1a;分析&实现 1.2&#xff1a;取消点赞 1.2.1&#xff1a;分析&实现 2&#xff1a;喜欢 2.1&#xff1a;动态喜欢 2.1.1&#xff1a;分析&实现 2.2&#xff1a;取消喜欢 2.2.2&#xff1a…

学成在线笔记+踩坑(5)——【媒资模块】上传视频,断点续传

目录 5 上传视频 5.1 媒资管理页面上传视频流程预览 5.2 断点续传技术 5.2.1 什么是断点续传 5.2.2 测试分块与合并&#xff0c;RandomAccessFile随机流 5.2.3 视频上传流程 5.2.4 测试minio合并文件 5.3 接口定义&#xff0c;检查文件/分块、上传分块、合并分块 5.4…

4年外包终上岸,我只能说这类公司能不去就不去

我大学学的是计算机专业&#xff0c;毕业的时候&#xff0c;对于找工作比较迷茫&#xff0c;也不知道当时怎么想的&#xff0c;一头就扎进了一家外包公司&#xff0c;一干就是4年。现在终于跳槽到了互联网公司了&#xff0c;我想说的是&#xff0c;但凡有点机会&#xff0c;千万…

类图(类之间的关系)

一.概述 类图(Class diagram)是显示了模型的静态结构&#xff0c;特别是模型中存在的类、类的内部结构以及它们与其他类的关系等。类图不显示暂时性的信息。类图是面向对象建模的主要组成部分。在软件工程中&#xff0c;类图是一种静态的结构图&#xff0c;描述了系统的类的集合…