j2:基于pytorch的resnet实验:鸟类分类

news2024/11/24 0:17:18

基于pytorch的resnet实验:鸟类分类

  • 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
  • 🍖 原作者:K同学啊
Ⅰ Ⅰ Introduction:
  • 本文为机器学习使用resnet实现鸟类图片分类的实验,素材来自网络。
  • 学习目标:
    • 学习和理解resnetV和v2的区别
    • 基于tensorflow代码写出pytroch版本并跑通
Ⅱ Ⅱ Experiment:
  1. 数据准备与任务分析:
    数据通过网络下载完成
    resnetV2介绍与v1差别:
    ResNetV2 与 ResNetV1 的区别
  2. 残差块的设计
    ResNetV1: ResNetV1 的残差块是先进行卷积运算,然后再通过批归一化(Batch Normalization)和激活函数(ReLU)。这一设计可能在深层网络中出现梯度消失的问题,尤其在网络深度增加时更为明显。

公式:

ResNetV2: ResNetV2 提出了**预激活(Pre-activation)**的概念,首先对输入进行批归一化和 ReLU 激活,然后再进行卷积运算。这样可以缓解梯度消失问题,使得信息在反向传播时能更有效地通过残差块。

公式:

  1. 梯度传播的优化
    ResNetV1的梯度更新路径较长,梯度需要通过 ReLU 和卷积层反向传播到前面的层。随着网络加深,梯度衰减可能导致训练困难。

ResNetV2使用了预激活结构,梯度直接通过批归一化和残差连接传播到前面的层,这样可以更好地保持梯度流动,特别是在非常深的网络中性能表现优越。

  1. 性能差异
    ResNetV1在初期的实验中表现优异,能够训练非常深的网络并取得出色的性能,但其在非常深的网络(如超过50层)时,梯度消失问题依然存在。

ResNetV2在同样的深度下比 ResNetV1 更稳定,尤其是在更深的层数下(如 ResNet-101、ResNet-152 等),性能更优,梯度更加平滑。

实验总结
实现了 ResNetV2 中的 Residual Block
使用了预激活(Pre-activation)的残差块设计,通过在卷积操作前应用Batch Normalization和ReLU 激活,确保梯度更好地传播。
实现了卷积的**捷径(shortcut)**路径,通过 1x1 卷积进行维度匹配,确保输入和输出之间的通道和尺寸一致。
实现了完整的 ResNet50V2 架构
ResNet50V2 包含五个大的卷积层组(conv1 至 conv5),通过残差块进行堆叠,并通过 Stack2 来组合多个残差块形成网络的深度。
实现了可选的顶层池化和分类层,通过配置参数可选择是否使用全连接层(即分类层)或使用全局池化(average pooling 或 max pooling)。
实验要点
本次实现的 ResNetV2 结构通过残差连接解决了深层网络中的梯度消失问题,并使用预激活设计来优化梯度流动。相比 ResNetV1,V2 的设计在较深层次的模型上更加稳定。
模型可以配置是否包含顶层(全连接层),这使得该模型不仅适用于分类任务,还可以灵活地应用于其他计算机视觉任务,如特征提取、迁移学习等。

  1. 配置环境:
    语言环境:python 3.8
    编译器: pycharm
    深度学习环境:
    torch2.11
    cuda12.1
    torchvision
    0.15.2a0
    导入一切需要的包:
import torch
import torch.nn as nn
import torchvision.transforms as transforms
import torchvision
from torchvision import transforms, datasets
import os, PIL, pathlib, warnings
import torch.nn.functional as F
import matplotlib.pyplot as plt
import pandas as pd
from torchvision.io import read_image
from torch.utils.data import Dataset
import torch.utils.data as data
from PIL import Image
import copy
import numpy as np
  1. 构建网络:
    为了提高模型性能,选择输入为3通道,经过4层卷积2层池化以及两层全连接输出最终结果,同时训练中加入BN与dropout方法。
class Block2(nn.Module):
    def __init__(self, in_channel, filters, kernel_size=3, stride=1, conv_shortcut=False):
        super(Block2, self).__init__()

        # 预激活:BN + ReLU
        self.preact = nn.Sequential(
            nn.BatchNorm2d(in_channel),
            nn.ReLU(inplace=True)
        )

        # Shortcut(捷径连接)部分
        self.shortcut = conv_shortcut
        if self.shortcut:
            # 如果conv_shortcut为True,则使用1x1卷积调整输入通道和输出通道的一致性
            self.short = nn.Conv2d(in_channel, 4 * filters, kernel_size=1, stride=stride, bias=False)
        elif stride > 1:
            # 如果需要降采样且没有捷径连接,使用MaxPool2d降采样
            self.short = nn.MaxPool2d(kernel_size=1, stride=stride, padding=0)
        else:
            # 否则直接使用Identity保持输入不变
            self.short = nn.Identity()

        # 残差块的三层卷积
        self.conv1 = nn.Sequential(
            nn.Conv2d(in_channel, filters, kernel_size=1, stride=1, bias=False),
            nn.BatchNorm2d(filters),
            nn.ReLU(inplace=True)
        )
        self.conv2 = nn.Sequential(
            nn.Conv2d(filters, filters, kernel_size=kernel_size, stride=stride, padding=1, bias=False),
            nn.BatchNorm2d(filters),
            nn.ReLU(inplace=True)
        )
        self.conv3 = nn.Conv2d(filters, 4 * filters, kernel_size=1, stride=1, bias=False)

    def forward(self, x):
        # 预激活处理输入
        x1 = self.preact(x)

        # 处理捷径连接
        if self.shortcut:
            x2 = self.short(x1)
        else:
            x2 = self.short(x)

        # 残差路径
        x1 = self.conv1(x1)
        x1 = self.conv2(x1)
        x1 = self.conv3(x1)

        # 残差连接:输入加上残差路径
        x = x1 + x2

        return x


class ResNet50V2(nn.Module):
    def __init__(self,
                 include_top=True,  # 是否包含位于网络顶部的全连接层
                 preact=True,  # 是否使用预激活
                 use_bias=False,  # 是否对卷积层使用偏置
                 input_shape=[224, 224, 3],  # 输入的图像大小
                 classes=1000,  # 用于分类的类数量
                 pooling=None):  # 全局池化类型,可选 "avg" 或 "max"
        super(ResNet50V2, self).__init__()

        # 第一层卷积 + 最大池化
        self.conv1 = nn.Sequential()
        self.conv1.add_module('conv', nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3, bias=use_bias))

        # 如果不使用预激活,则在conv1之后加BN和ReLU
        if not preact:
            self.conv1.add_module('bn', nn.BatchNorm2d(64))
            self.conv1.add_module('relu', nn.ReLU(inplace=True))

        self.conv1.add_module('max_pool', nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

        # 残差堆栈 (Stack of residual blocks)
        self.conv2 = Stack2(64, 64, 3, stride=1)
        self.conv3 = Stack2(256, 128, 4, stride=2)
        self.conv4 = Stack2(512, 256, 6, stride=2)
        self.conv5 = Stack2(1024, 512, 3, stride=2)

        # 后处理部分
        self.post = nn.Sequential()
        if preact:
            # 使用预激活时,最终加入一个BN + ReLU
            self.post.add_module('bn', nn.BatchNorm2d(2048))
            self.post.add_module('relu', nn.ReLU(inplace=True))

        # 是否包含全连接层
        if include_top:
            self.post.add_module('avg_pool', nn.AdaptiveAvgPool2d((1, 1)))
            self.post.add_module('flatten', nn.Flatten())
            self.post.add_module('fc', nn.Linear(2048, classes))
        else:
            # 可选全局池化层
            if pooling == 'avg':
                self.post.add_module('avg_pool', nn.AdaptiveAvgPool2d((1, 1)))
            elif pooling == 'max':
                self.post.add_module('max_pool', nn.AdaptiveMaxPool2d((1, 1)))

    def forward(self, x):
        # 前向传播
        x = self.conv1(x)  # 初始卷积层
        x = self.conv2(x)  # 第一残差块
        x = self.conv3(x)  # 第二残差块
        x = self.conv4(x)  # 第三残差块
        x = self.conv5(x)  # 第四残差块
        x = self.post(x)  # 后处理
        return x

class Stack2(nn.Module):
    def __init__(self, in_channels, filters, blocks, stride=1):
        super(Stack2, self).__init__()

        # 第一个Block使用步幅进行降采样
        self.blocks = nn.Sequential()
        self.blocks.add_module('block_0', Block2(in_channels, filters, stride=stride, conv_shortcut=True))
        
        # 其余Block保持输入大小不变
        for i in range(1, blocks):
            self.blocks.add_module(f'block_{i}', Block2(4 * filters, filters, stride=1, conv_shortcut=False))

    def forward(self, x):
        return self.blocks(x)
  1. 训练模型:
    模型的损失函数选用交叉熵,通过以下代码对模型进行更新:
def train(dataloader, model, optimizer, loss_fn, device):
    """训练模型的一个epoch。"""
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    train_acc, train_loss = 0, 0

    for X, y in dataloader:
        X, y = X.to(device), y.to(device)
        pred = model(X)
        loss = loss_fn(pred, y)

        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        train_loss += loss.item()
        train_acc += (pred.argmax(1) == y).type(torch.float).sum().item()

    train_loss /= num_batches
    train_acc /= size

    return train_acc, train_loss
  1. 测试模型:
    通过以下代码完成评估:
def test(dataloader, model, loss_fn, device):
    """测试模型的性能。"""
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    test_loss, test_acc = 0, 0

    with torch.no_grad():
        for imgs, target in dataloader:
            imgs, target = imgs.to(device), target.to(device)
            target_pred = model(imgs)
            loss = loss_fn(target_pred, target)
            test_loss += loss.item()
            test_acc += (target_pred.argmax(1) == target).type(torch.float).sum().item()

    test_acc /= size
    test_loss /= num_batches

    return test_acc, test_loss
  1. 实验结果及可视化:
    主函数训练代码即绘制图像执行如下:
if __name__ == "__main__":
    # 设置设备
    device = set_device()
    
    # 配置matplotlib
    configure_plot()
    
    # 数据路径
    data_dir = '/content/drive/MyDrive/J1/bird_photos'
    data_dir = pathlib.Path(data_dir)
    
    # 统计图片数量
    image_count = count_images(data_dir)
    print("图片总数为:", image_count)
    
    # 获取类别名称
    data_paths = list(data_dir.glob('*'))
    classNames = [str(path).split('/')[-1] for path in data_paths]
    print("类别名称:", classNames)
    
    # 数据预处理
    train_transforms = transforms.Compose([
        transforms.Resize([224, 224]),
        transforms.ToTensor(),
        transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
    ])
    
    test_transform = transforms.Compose([
        transforms.Resize([224, 224]),
        transforms.ToTensor(),
        transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
    ])
    
    # 加载数据
    train_dataset, test_dataset, total_data = load_data(data_dir, train_transforms)
    
    # 创建数据加载器
    batch_size = 8
    train_dl, test_dl = create_data_loaders(train_dataset, test_dataset, batch_size)
    
    # 可视化部分图片
    visualize_sample_images('/content/drive/MyDrive/J1/bird_photos/Black Skimmer/')
    
    # 定义ResNet模型
    model = ResNet50(block=ResNetblock, num_classes=len(classNames)).to(device)
    print(model)
    
    # 设置损失函数和优化器
    loss_fn = nn.CrossEntropyLoss()
    learn_rate = 1e-3
    opt = torch.optim.Adam(model.parameters(), lr=learn_rate)
    
    # 训练模型
    epochs = 20
    train_loss, train_acc, test_loss, test_acc = [], [], [], []
    best_acc = 0

    for epoch in range(epochs):
        model.train()
        epoch_train_acc, epoch_train_loss = train(train_dl, model, opt, loss_fn, device)
        model.eval()
        epoch_test_acc, epoch_test_loss = test(test_dl, model, loss_fn, device)

        if epoch_test_acc > best_acc:
            best_acc = epoch_test_acc
            best_model = copy.deepcopy(model)

        train_acc.append(epoch_train_acc)
        train_loss.append(epoch_train_loss)
        test_acc.append(epoch_test_acc)
        test_loss.append(epoch_test_loss)

        lr = opt.state_dict()['param_groups'][0]['lr']

        template = ('Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%, Test_loss:{:.3f}, Lr:{:.2E}')
        print(template.format(epoch + 1, epoch_train_acc * 100, epoch_train_loss,
                              epoch_test_acc * 100, epoch_test_loss, lr))
    
    # 绘制结果
    plot_results(epochs, train_acc, test_acc, train_loss, test_loss)
    
    print('训练完成')

在这里插入图片描述

Ⅲ Ⅲ Conclusion:

通过本次实验,我们深入理解了 ResNetV2 相较于 ResNetV1 的改进之处,尤其是预激活的设计如何提升深层网络的梯度传播效率。实验中成功地实现了 ResNet50V2 的网络架构,展示了如何通过残差块的堆叠来构建深度卷积神经网络。

对于今后的任务,可以考虑在更深层的网络上使用 ResNetV2 以提高稳定性,特别是在需要更深层结构(如 ResNet-101、ResNet-152)时,V2 的优势会更加明显。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2046129.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

跟李沐学AI:目标检测的常用算法

区域神经网络R-CNN 使用启发式搜索算法来选择锚框 -> 使用预训练模型来对每个锚框抽取特征 -> 训练一个SVM对类别进行分类 -> 训练一个线性回归模型来预测边缘框偏移 锚框大小不一,如何将不同的锚框统一为一个batch? -> 兴趣区域池化层 兴趣区域(RoI…

界面优化 - QSS

目录 1、背景介绍 2、基本语法 3、QSS 设置方式 3.1 指定控件样式设置 代码示例: 子元素受到影响 3.2 全局样式设置 代码示例: 使用全局样式 代码示例: 样式的层叠特性 代码示例: 样式的优先级 3.3 从文件加载样式表 代码示例: 从文件加载全局样式 3.4 使用 Qt Desi…

最新UI六零导航系统源码 | 多模版全开源

六零导航页 (LyLme Spage) 致力于简洁高效无广告的上网导航和搜索入口,支持后台添加链接、自定义搜索引擎,沉淀最具价值链接,全站无商业推广,简约而不简单。 使用PHPMySql,增加后台管理 多模板选择,支持在…

MySQL基础练习题46-每位经理的下属员工数量

目录 题目 准备数据 分析数据 总结 题目 我们将至少有一个其他员工需要向他汇报的员工,视为一个经理。 返回需要听取汇报的所有经理的 ID、名称、直接向该经理汇报的员工人数,以及这些员工的平均年龄,其中该平均年龄需要四舍五入到最接近…

【网络】IP分片与路径MTU发现

目录 MTU值 IP分片与重组 路径MTU发现 路径MTU发现原理 个人主页:东洛的克莱斯韦克-CSDN博客 相关文章:【网络】从零认识IPv4-CSDN博客 MTU值 由于物理层的硬件限制,为了使网络性能最优,在数据链路层会有一个MTU值&#xff0…

算法【Java】—— 双指针算法

双指针算法 常见的双指针有对撞指针,快慢指针以及前后指针(这个前后指针是指两个指针都是从从一个方向出发,去往另一个方法,也可以认为是小学学习过的两车并行,我也会叫做同向指针),在前后指针…

Python3网络爬虫开发实战(10)模拟登录(需补充账号池的构建)

文章目录 一、基于 Cookie 的模拟登录二、基于 JWT 模拟登入三、账号池四、基于 Cookie 模拟登录爬取实战五、基于JWT 的模拟登录爬取实战六、构建账号池 很多情况下,网站的一些数据需要登录才能查看,如果需要爬取这部分的数据,就需要实现模拟…

KNN图像识别实例--手写数字识别

目录 前言 一、导入库 二、导入图像并处理 1.导入图像 2.提取出图像中的数字 3.将列表转换成数组 4.获取特征数据集 5.获取标签数据 三、使用KNN模型 1.创建KNN模型并训练 2.KNN模型出厂前测试 3.使用测试集对KNN模型进行测试 四、传入单个图像,使用该模…

叉车高位盲区显示器 无线摄像头免打孔 视线遮挡的解决方案

叉车作业货叉叉货时,货叉升降无法看清位置,特别是仓储的堆高车,司机把头探出去才勉强可以靠经验找准方位!一个不小心就可能叉歪了,使货物倾斜、跌落等等,从而发生事故!如何将隐患扼杀&#xff0…

【JAVA入门】Day21 - 时间类

【JAVA入门】Day21 - 时间类 文章目录 【JAVA入门】Day21 - 时间类一、JDK7前的时间相关类1.1 Date1.2 SimpleDateFormat1.3 Calendar 二、JDK8新增的时间相关类2.1 Date 相关类2.1.1 ZoneId 时区2.1.2 Instant 时间戳2.1.3 ZoneDateTime 带时区的时间 2.2 DateTimeFormat 相关…

刷题DAY7

三个数的排序 题目:输入三个整数x,y,z,请把这三个数由小到大输出 输入:输入数据包含3个整数x,y,z,分别用逗号隔开 输出:输出由小到大排序后的结果,用空格隔…

O2OA开发知识-后端代理/接口脚本编写也能像前端一样用上debugger

在o2oa开发平台中,后端代理或者接口的脚本编写也能像前端一样用上debugger,这是来自藕粉社区用户的宝贵技术支持。 感谢藕粉社区论坛用户提供的技术分享!tzengsh_BTstthttps://www.o2oa.net/forum/space-uid-4410.html 论坛地址&#xff1a…

【Kubernetes】k8s集群图形化管理工具之rancher

目录 一.Rancher概述 1.Rancher简介 2.Rancher与k8s的关系及区别 3.Rancher具有的优势 二.Rancher的安装部署 1.实验准备 2.安装 rancher 3.rancher的浏览器使用 一.Rancher概述 1.Rancher简介 Rancher 是一个开源的企业级多集群 Kubernetes 管理平台,实…

2024年高教社杯数学建模国赛A题思路解析+代码+论文

2024年高教社杯全国大学生数学建模竞赛(以下简称国赛)将于9月5日晚6时正式开始。 下文包含:2024国赛思路解析​、国赛参赛时间及规则信息说明、好用的数模技巧及如何备战数学建模竞赛 C君将会第一时间发布选题建议、所有题目的思路解析、相…

Axure:引领智慧时代的数据可视化原型设计先锋

在数字化转型的浪潮中,智慧农业、智慧城市、智慧社区、智慧水务等概念如雨后春笋般涌现,它们不仅重塑了我们的生活空间,也对数据可视化提出了前所未有的要求。作为原型设计领域的佼佼者,Axure RP凭借其强大的交互设计能力和直观的…

关于Nachi机器人自动运行上电条件

Nachi 机器人有两种控制柜,分别为 FD 控制柜和 CFD 控制柜。 对于 FD 控制器,执行以下操作。 1.旋转控制柜钥匙,使其对准标注位置①。 2.旋转示教器旋钮至下图所示位置。然后依次单击绿色按钮与白色按钮,机器人上电运行。 对于…

2025大数据毕业设计/计算机毕业设计创新必过选题(建议收藏)

一、大数据题目 项目架构模式: 1、数据Python爬虫:selenium、requests、DrissionPage等爬虫框架 2、hadoop、Spark、Flink(PyFlink)数据分析【可vmvare虚拟机可windwos电脑】 3、springboot、vue.js前后分离构建系统主体 4、…

排序篇——递归实现快速排序(hoare版-挖坑法-前后指针版)

目录 前言 一、key? 二、思路及代码实现 1.hoare版 2.挖坑法 3.前后指针版本 总结 前言 快速排序是Hoare于1962年提出的一种二叉树结构的交换排序方法。它会选出一个基准值(key),把它放到正确的位置(排序之后的位置)。 提示:以下是本篇…

c语言学习,tolower ()函数分析

1:tolower() 函数说明: 检查参数c,为大写字母返回对应的小写字母 2:函数原型: int toascii(int c) 3:函数参数: 参数c,为检测整数 4:返回值: 返回转换的小…

【Python】生成二维迷宫的算法

前言 哈里最近因为一个小插曲打算写一个设计迷宫的算法。为了锻炼脑力,特地没有上网搜索而是自己摸索出一个迷宫设计算法。 概述 1、需求 哈里准备实现下图的迷宫。 2、分析 可以看到,图里凡是x和y坐标为单数时,总是白色。于是哈里得到下…