人工智能学习07--pytorch09--LeNet

news2024/11/27 18:38:10

在这里插入图片描述
参考:
视频:
https://www.bilibili.com/video/BV187411T7Ye/?spm_id_from=333.999.0.0&vd_source=b425cf6a88c74ab02b3939ca66be1c0d
博客:https://blog.csdn.net/STATEABC/article/details/123661612?utm_medium=distribute.pc_feed_404.none-task-blog-2defaultBlogCommendFromBaiduRate-8-123661612-blog-null.pc_404_mixedpudn&depth_1-utm_source=distribute.pc_feed_404.none-task-blog-2defaultBlogCommendFromBaiduRate-8-123661612-blog-null.pc_404_mixedpud

搭建网络

  • 在pytorch中搭建模型:
    1、先写一个类,继承nn.Module
    2、在类中实现两个方法
    ①**init(self) 初始化函数**:
    实现在搭建网络过程中需要使用到的一些网络层结构
    forward(self,x):
    定义正向传播的过程
    实例化这个类之后,将参数传递到实例中,进行正向传播。按照forward里面的这个顺序来运行。
import torch.nn as nn
import torch.nn.functional as F


class LeNet(nn.Module):         #在Pytorch中搭建模型首先要定义一个类,这个类要继承于nn.Module这个副类
    def __init__(self):         #在该类中首先要初始化函数,实现在搭建网络过程中需要使用到的网络层结构,#然后在forward中定义正向传播的过程
        super(LeNet, self).__init__()      #super能够解决在多重继承中调用副类可能出现的问题
        self.conv1 = nn.Conv2d(3, 16, 5)   #这里输入深度为3,卷积核个数为16,大小为5x5
        self.pool1 = nn.MaxPool2d(2, 2)    #最大池化核大小为2x2,步长为2
        self.conv2 = nn.Conv2d(16, 32, 5)  #经过Conv2d的16个卷积核处理后,输入深度变为16
        self.pool2 = nn.MaxPool2d(2, 2)
        self.fc1 = nn.Linear(32*5*5, 120)  #全连接层的输入是一维的向量,因此将输入的特征矩阵进行展平处理(32x5x5),然后根据网络设置输出
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)       #输出有几个类别就设置几

    def forward(self, x):     #在forward中定义正向传播的过程
        x = F.relu(self.conv1(x))    # input(3, 32, 32) output(16, 28, 28)    可通过矩阵尺寸大小计算公式得
        x = self.pool1(x)            # output(16, 14, 14)
        x = F.relu(self.conv2(x))    # output(32, 10, 10)
        x = self.pool2(x)            # output(32, 5, 5)
        x = x.view(-1, 32*5*5)       # output(32*5*5)
        x = F.relu(self.fc1(x))      # output(120)
        x = F.relu(self.fc2(x))      # output(84)
        x = self.fc3(x)              # output(10)
        return x

  • init(self)
    super:在定义类的过程中继承了nn.Module类。super:在多层继承中调用父类可能出现的问题。
    第一个卷积层: self.conv1 = nn.Conv2d(3, 16, 5)
    通过nn.Conv2d函数(使用2d卷积,对输入的数据进行处理)来构建卷积层。参数:
    在这里插入图片描述
    1 in_channels 输入特征矩阵的深度(如:3:R,G,B)
    2 out_channels 使用卷积核的个数(使用几个卷积核,就会生成一个深度为多少维的特征矩阵)
    3 kernel_size 卷积核大小
    4 stride 步长,默认等于1
    5 padding 在四周补数时默认等于0
    6 dilation groups 比较高阶,暂时用不到
    7 bias 偏置,True默认使用
    self.conv1 = nn.Conv2d(3, 16, 5)

    输入深度为3,卷积核个数为16,大小为5x5
    ③计算输出图片的大小:
    ( padding=0 )在这里插入图片描述
    (32-5)/1+1 = 28
    所以输出的是16x28x28(16个卷积核,所以channel变成16了)
    如果写了batch,那就是输出(banchx16x28x28)
    定义下采样层:self.pool1 = nn.MaxPool2d(2, 2)
    在这里插入图片描述
    1 kernel_size 池化核大小
    2 stride 如果不去指定步长,则采用与池化核大小一样的步距
    self.pool1 = nn.MaxPool2d(2, 2)

    采用池化核大小2x2,步长为2的最大池化操作
    ⑤计算池化层输出:(28-2)/2+1=14,即宽度高度缩减为输入的一半
    池化层,只改变特征矩阵的高和宽,不影响深度(16)
    第二个卷积层:self.conv2 = nn.Conv2d(16, 32, 5)
    输入深度16,采用32个卷积核,尺寸5x5
    (14-5+0)/1+1 = 10
    所以输出为32x10x10
    第二个下采样层:nn.MaxPool2d(2, 2)
    (10-2)/2+1 = 5
    所以输出为(32x5x5)的尺寸
    第一个全连接层:self.fc1 = nn.Linear(32x5x5, 120)
    全连接层的输入为一维向量,所以要把特征矩阵展平变成一维向量。
    ↓所以第一个全连接层的输入为32x5x5,有120个参数
    第二个全连接层:self.fc2 = nn.Linear(120, 84)
    输入为上个全连接层的输出(120个节点)
    第二层这里设置84个节点(看顶上的网络结构图,按照这个神经网络的定义来构建这个网络)
    self.fc3 = nn.Linear(84, 10)
    84就是上一层定义的84个节点。
    输出需要根据训练集来弄。这里是10(使用cifar10训练–>具有10个类别的分类任务)。

  • forward(self,x) 定义前向传播
    x:输入的数据:按照以下排列顺序的数据↓
    在这里插入图片描述
    x = F.relu(self.conv1(x))
    数据x经过定义的卷积层1
    将得到的输出通过relu激活函数
    x = self.pool1(x)
    将输出通过下采样1层
    x = F.relu(self.conv2(x))
    ……
    x = self.pool2(x)
    ……
    到了这里
    在这里插入图片描述
    要和全连接层进行拼接,将特征矩阵展平变成一维向量↓
    x = x.view(-1, 32x5x5)
    将特征矩阵展平变成一维向量
    -1 第一个维度,自动推理,为batch
    3255展平后节点个数
    -1是xpython里view(x,y)函数的一个可选取值,x这一项置为-1,就会自动根据整个向量的维度和后面的y计算x这项
    -1表示不确定展开成几行,但是知道要展开成32x5x5列,因为一共就是32x5x5,所以是一行,即一维向量
    -1是代表自动推理,函数自己计算那个维度的大小
    x = F.relu(self.fc1(x))
    将数据通过全连接层1+它的激活函数
    x = F.relu(self.fc2(x))
    ……
    x = self.fc3(x)
    通过全连接层3得到最终的输出

为什么这里没有用Softmax这个函数?

对于分类问题,一般会在最后接上一个softmax层,让输出转化成为一个概率分布。
但是在训练网络过程中,计算卷积交叉熵的过程中,已经在它的内部(优化器SGD中)实现了softmax方法,所以这里不用再添加了。

测试

# 实例化 ↑ 后进行测试 ↓
import torch
input1 =torch.rand([32,3,32,32])     #定义随机生成数据的shape batch,深度,高度,宽度
model = LeNet()                      #实例化模型
print(model)
output = model(input1)               #将数据输入到网络中进行正向传播

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

将input变量传输类的实例model,为什么会自动调用forward() ?

在nn.mldule类中,有一个call方法调用了forward函数,所以所有的nn.module子类中默认调用forward函数

实例后得到的实例当成一个函数调用的时候(例如:model(),此处model是实例)会调用实例所属类的__call__方法,而_call__方法中调用了forward方法

训练:

cifar10数据集

提前下载复制到当前目录的data文件夹里面

transform = transforms.Compose(  # 通过transforms.Compose函数将使用的预处理方法打包成一个整体
    [transforms.ToTensor(),
     # 将PIL图像或numpy数据转化成tensor,即将shape (H x W x C) in the range [0, 255]转换成shape (C x H x W) in the range [0.0, 1.0]
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])  # 标准化的过程

transform,对图像进行预处理
Compose函数把用到的一些预处理方法打包成一个整体

  • ToTensor在这里插入图片描述 - Normalize
    标准化,使用均值或者标准差来标准化tensor
    在这里插入图片描述
# 导入50000张训练图片
train_set = torchvision.datasets.CIFAR10(root='./data', 	 # 数据集存放目录,这里是当前目录的data文件夹下
										 train=True,		 # 如果是True,就会导入cifar10训练集的样本
                                        download=True,  	 # 第一次运行时为True,下载数据集,下载完成后改为False
                                        transform=transform) # 预处理过程
# 加载训练集,实际过程需要分批次(batch)训练
train_loader = torch.utils.data.DataLoader(train_set, 	  # 导入的训练集
										   batch_size=50, # 每批训练的样本数
                                          shuffle=False,  # 是否打乱训练集
                                          num_workers=0)  # 使用线程数,在windows下设置为0

通过CIFAR10函数导入训练集,将训练集的每一个图像通过transform预处理函数进行预处理

# 10000张测试图片
# 第一次使用时要将download设置为True才会自动去下载数据集
test_set = torchvision.datasets.CIFAR10(root='./data', train=False,
                                        download=False, transform=transform)
test_loader = torch.utils.data.DataLoader(test_set, batch_size=4,
                                         shuffle=False, num_workers=0)
# 获取测试集中的图像和标签,用于accuracy计算
test_data_iter = iter(test_loader)
test_image, val_label = test_data_iter.next()

将test_loader转化为可迭代的迭代器
通过next方法可获取到一批数据,其中包含图像、图像对应的标签值
发现.next()这里报错,改为了:
test_image, test_label = test_data_iter.next()

# 导入标签
classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

iindex[0]对应plane

模型

net = LeNet() #实例化模型
loss_function = nn.CrossEntropyLoss() 
#定义损失函数,在nn.CrossEntropyLoss中已经包含了Softmax函数
optimizer = optim.Adam(net.parameters(), lr=0.001)
#定义优化器,这里使用Adam优化器,net是定义的LeNet,parameters将LeNet所有可训练的参数都进行训练,lr=learning rate

  • nn.CrossEntropyLoss() 损失函数
    在这里插入图片描述
    可以看出已经内置了softmax函数
  • optim.Adam(net.parameters(), lr=0.001) 优化器
    使用Adam优化器
    net.parameters():把net(LeNet)中可训练的参数都进行训练
    lr学习率

有GPU时使用GPU,无GPU时使用CPU训练

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(device)
net = LeNet()                                                     #实例化模型
# net.to(device)                                                    #将网络分配到指定的device中
loss_function = nn.CrossEntropyLoss()                             #定义损失函数,在nn.CrossEntropyLoss中已经包含了Softmax函数
optimizer = optim.Adam(net.parameters(), lr=0.001)                #定义优化器,这里使用Adam优化器,net是定义的LeNet,parameters将LeNet所有可训练的参数都进行训练,lr=learning rate

# 对应的,需要用to()函数来将Tensor在CPU和GPU之间相互移动,分配到指定的device中计算

for epoch in range(5):  # loop over the dataset multiple times    #将训练集迭代的次数(5轮)

    running_loss = 0.0                                            #累加训练过程的损失
    # time_start = time.perf_counter()
    for step, data in enumerate(train_loader, start=0):           #遍历训练集样本
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data                                     #将得到的数据分离成输入(图片)和标签

        # zero the parameter gradients
        optimizer.zero_grad()                                     #将历史损失梯度清零,如果不清除历史梯度,就会对计算的历史梯度进行累加(通过这个特性能够变相实现一个很大的batch)

        # forward + backward + optimize
        outputs = net(inputs)                                     # 将图片放入网络正向传播,得到输出
        # outputs = net(inputs.to(device))                        # 将inputs分配到指定的device中
        # loss = loss_function(outputs, labels.to(device))        # 将labels分配到指定的device中
        loss = loss_function(outputs, labels)                     #计算损失,outputs为网络预测值,labels为输入图片对应的真实标签
        loss.backward()                                           #将loss进行反向传播
        optimizer.step()                                          #进行参数更新

        # print statistics
        running_loss += loss.item()                               #计算完loss完之后将其累加到running_loss
        # 累加损失,因为希望每500次迭代计算一个损失:
        if step % 500 == 499:    # print every 500 mini-batches   #每隔500次打印一次训练的信息
            with torch.no_grad():
                # with是一个上下文管理器:在接下来的计算中,不要计算每个节点中误差的损失梯度。否则即使在测试阶段中也会计算
                # 会自动生成前向的传播图,这会占用大量内存,测试时应该禁用
                # outputs = net(val_image.to(device))               # 将test_image分配到指定的device中
                outputs = net(test_image)  # [batch, 10]  [0]为batch
                predict_y = torch.max(outputs, dim=1)[1]          #寻找输出的最大的index。在维度1上进行最大值的预测,[1]为index索引,[0]为batch
                # accuracy = (predict_y == test_label.to(device)).sum().item() / test_label.size(0)  # 将test_label分配到指定的device中
                accuracy = torch.eq(predict_y, test_label).sum().item() / test_label.size(0)      #将预测的标签类别与真实的标签类别进行比较,在相同的地方返回值为1,否则为0,用此计算预测对了多少样本

                print('[%d, %5d] train_loss: %.3f  test_accuracy: %.3f' %
                          (epoch + 1, step + 1, running_loss / 500, accuracy))

                # print('%f s' % (time.perf_counter() - time_start))
                running_loss = 0.0

print('Finished Training')
  • enumerate就是c++里面的枚举,返回每一批数据的data和这一批data对应的步数index。
    start=0说明从0开始
    得到数据后,将数据分离成图像和标签:inputs, labels = data
  • optimizer.zero_grad()
    将历史损失梯度清零
    在这里插入图片描述
    如果不清除历史梯度,就会对计算的历史梯度进行累加(通过这个特性能够变相实现一个很大的batch)
    一般情况下,batch_size是根据硬件设备来设置的。数值设置的越大,训练效果就越好。但一般由于硬件设备受限,内存不足,所以不可能用很大的batch训练。所以用这种梯度清零的方法来实现很大batch的训练:
    一次性计算多个小的batch的损失梯度,变相得到一个很大的batch的图片的损失梯度。再对这个大batch的梯度进行反向传播。
  • accuracy = torch.eq(predict_y, test_label).sum().item() / test_label.size(0)
    torch.eq(predict_y, test_label) 相同的地方返回True(1),否则返回False(0)。
    sum:求和,计算本次测试中预测对了多少个样本
  • running_loss = 0.0
    清零,进行下一轮
save_path = './Lenet.pth'                                        #保存权重
torch.save(net.state_dict(), save_path)                          #将网络的所有参数及逆行保存

保存网络所有参数

在这里插入图片描述
在第一个epoch中的第500步,训练的损失是1.687,测试准确率是0.450
在这里插入图片描述
最终准确率0.710
在这里插入图片描述
可以看到已经生成了本次训练的模型权重文件

测试:

调用模型权重进行预测

transform = transforms.Compose(
    [transforms.Resize((32, 32)),               #首先需resize成跟训练集图像一样的大小
     transforms.ToTensor(),                     #转化成tensor
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]) #标准化处理

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

net = LeNet()                                    #实例化网络
net.load_state_dict(torch.load('Lenet.pth'))     #载入保存的权重文件

im = Image.open('plane.png')                         #导入要测试的图片
# PIL图像导入的可是一般都是宽度,高度,通道,要正向传播则要转变成pytorch tensor的格式
im = transform(im)  # [C, H, W]
im = torch.unsqueeze(im, dim=0)  # [N, C, H, W]  #对数据增加一个新维度,因为tensor的参数是[batch, channel, height, width]

with torch.no_grad():
    outputs = net(im)  #把图像传入网络
    predict = torch.max(outputs, dim=1)[1].numpy() #寻找输出汇总的最大尺度对应的index(索引),把它传入classes
print(classes[int(predict)])

或者使用softmax得到一个概率分布:

with torch.no_grad():
    outputs = net(im)  #把图像传入网络
    # predict = torch.max(outputs, dim=1)[1].numpy() #寻找输出汇总的最大尺度对应的index(索引),把它传入classes
    predict = torch.softmax(outputs, dim=1) #使用softmax函数 因为输出的是[channel,第一个维度],所以dim=1
# print(classes[int(predict)])
print(predict)

在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/372835.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何使用goquery进行HTML解析以及它的源码分析和实现原理

目录 goquery 是什么 goquery 能用来干什么 goquery quick start 玩转goquery.Find() 查找多个标签 Id 选择器 Class 选择器 属性选择器 子节点选择器 内容过滤器 goquery 源码分析 图解源码 总结 goquery 简介 goquery是一款基于Go语言的HTML解析库,…

聚类算法(上):8个常见的无监督聚类方法介绍和比较

无监督聚类方法的评价指标必须依赖于数据和聚类结果的内在属性,例如聚类的紧凑性和分离性,与外部知识的一致性,以及同一算法不同运行结果的稳定性。 本文将全面概述Scikit-Learn库中用于的聚类技术以及各种评估方法。 本文将分为2个部分&…

【Mac 教程系列】如何在 Mac 中用终端命令行方式打开 Sublime Text ?

如何在 Mac 中用终端命令行方式打开 Sublime Text ? 用 markdown 格式输出答案。 不少于1000字。细分到2级目录。 如何在 Mac 中用终端命令行方式打开 Sublime Text ? 一、首先确保已经安装 Sublime Text 前往官网https://www.sublimetext.com/下载 Sublime Text&#xff0c…

Bootstrap表单的使用

文章目录前言一、创建基础表单垂直表单(默认)内联表单(水平显示)表单控制尺寸大小给表单控件添加帮助文本禁用/只读表单无边框的控件取色器选择菜单(默认宽度100%)调整下拉菜单的大小表单开关滑块表单组多个…

LabVIEW网络服务安全

LabVIEW网络服务安全如何保护Web服务?当许多人考虑安全性时,他们会考虑加密、用户ID和密码。用户ID和密码用于授权(告诉目标谁在发出请求)。加密保护客户端和服务器之间的通信流量,以便未经授权的个人无法拦截和读取发…

【架构师】零基础到精通——康威定律

博客昵称:架构师Cool 最喜欢的座右铭:一以贯之的努力,不得懈怠的人生。 作者简介:一名Coder,软件设计师/鸿蒙高级工程师认证,在备战高级架构师/系统分析师,欢迎关注小弟! 博主小留言…

20_FreeRTOS低功耗模式

目录 低功耗模式简介 STM32低功耗模式 Tickless模式详解 Tickless模式相关配置 实验源码 低功耗模式简介 很多应用场合对于功耗的要求很严格,比如可穿戴低功耗产品、物联网低功耗产品等。 一般MCU都有相应的低功耗模式,裸机开发时可以使用MCU的低功耗模式。 FreeRTOS也…

Linux学习(8.7)命令与文件的搜寻

目录 命令与文件的搜寻 which 文件档名的搜寻: whereis (寻找特定文件) locate find 以下内容转载自鸟哥的Linux私房菜 命令与文件的搜寻 which 这个命令是根据『PATH』这个环境变量所规范的路径,去搜寻『运行档』的档名~ 所以&am…

计算机组成原理——运算方法续集(浮点数表示法)

浮点表示法把一个数字的有效数字和数的范围在计算机的一个存储单元中分别予以表示。这种精度分别表示的方法,相当于数的小数点位置随比例因子的不同而在一定范围内可以浮点,所以称为浮点表示法。在计算机中一个任意二进制数N可以写成N 2^e.M其中M称为浮…

Overleaf推广奖励:增加合作者的数量、解锁Dropbox同步和项目修改历史

Overleaf推广奖励 Overleaf是一个LaTeX\LaTeXLATE​X在线编译器,它可以让你与合作者共同在线编辑文档。但是默认的免费账号仅能邀请一个合作者。那么如何增加合作者的数量呢? Overleaf推出了一个奖励计划,你邀请其他人注册Overleaf&#xf…

使用MavenCentral发布Kotlin多平台库的远程依赖(KMM,KMP)

前言 开发者可能都会做自己的开源库,像我以前只做一些单平台的,如Android或JVM平台,这时候直接使用jitpack即可,很简单就能发布远程依赖 jitpack参考: 发布开源库的踩坑经历:jitpack.io_李小白lt的博客 而现在Kotlin可以通过expect来实现原生多平台项目(或库),这时我们开发…

【计算机三级网络技术】 第二篇 中小型系统总体规划与设计

文章目录一、基于网络的信息系统基本结构二、划分网络系统组建工程阶段三、网络需求调研与系统设计原则四、网络用户调查与网络工程需求分析1.网络用户调查2.网络节点的地理位置分布3.应用概要分析4.网络需求详细分析五、网络总体设计基本方法1.网络工程建设总体目标与设计原则…

C++---线性dp---传纸条(每日一道算法2023.2.26)

注意事项: 本题dp思路与 “线性dp–方格取数” 一致,下方思路仅证明为什么使用方格取数的思路是正确的。 题目: 小渊和小轩是好朋友也是同班同学,他们在一起总有谈不完的话题。 一次素质拓展活动中,班上同学安排坐成…

3.7寸按键翻页工牌

产品参数 产品型号 ESL_BWR3.7_BLE 产品尺寸 (mm) 62.51066.5 显示技术 E ink 显示区域 (mm) 47.32(H)81.12(V) 分辨率 (像素) 280480 像素尺寸(mm) 0.1690.169 150dpi 显示颜色 黑/白 视觉角度 180 工作温度 0℃ - 50℃ 电池 500mAh ( Type-C 充电…

黑盒测试用例设计方法-等价类划分法

目录 一、等价类的作用 二、等价类的分类 三、等价类的方法 四、等价类的原则 五、按照测试用例的完整性划分等价类 六、等价类步骤 七、案例 一、等价类的作用 为穷举测试设计测试点。 穷举:列出所有的可能情况,对其一一判断。 测试点&#x…

JasperReports studio相关操作

1.2 JasperReports JasperReports是一个强大、灵活的报表生成工具,能够展示丰富的页面内容,并将之转换成PDF,HTML,或者XML格式。该库完全由Java写成,可以用于在各种Java应用程序,包括J2EE,Web应…

【数据挖掘】1、综述:背景、数据的特征、数据挖掘的六大应用方向、有趣的案例

目录一、背景1.1 学习资料1.2 数据的特征1.3 数据挖掘的应用案例1.4 获取数据集1.5 数据挖掘的定义二、分类三、聚类四、关联分析五、回归六、可视化七、数据预处理八、有趣的案例8.1 隐私保护8.2 云计算的弹性资源8.3 并行计算九、总结一、背景 1.1 学习资料 推荐书籍如下&a…

C语言刷题(3)——“C”

各位CSDN的uu们你们好呀,今天小雅兰的内容还是做几道题噢,好好复习一下之前的知识点,现在,就让我们开始复习吧 牛客网在线编程_编程学习|练习题_数据结构|系统设计题库 倒置字符串_牛客题霸_牛客网 BC40 竞选社长 BC41 你是天才…

vitepress 就这几步操作,博客就搭好啦?

Ⅰ、什么是vitepress 💎 vitepress 使用场景 简单的说 ,只要 会用 markdown 语法,就能构建自己的 「博客、笔记、使用文档」等系统 ; ✨ vitepress 优势 优势介绍傻瓜式操作只需要配置 菜单 和 对应的 markdown 就能实现博客、笔…

OKR 与 KPI有何异同?各部门OKR实例【小bu】

OKR 与 KPI,如何本土化是关键 近期公司计划对去年实施的绩效考核方案进行优化,公司以往采用 KPI 绩效考核方式,产生了一些争议。一方面,执行期间部分部门一度忽略指标设置的真实目的,导致出现短视思维和行为&#xff1…