21- PyTorch通过CNN实现手写数字识别 (PyTorch系列) (项目二十一)

news2024/11/25 4:35:30

项目要点

  • torch 版本: torch.__version__      # '1.13.1+cpu'

  • 设置GPU: device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')

  • train_ds = datasets.MNIST('./', train = True, transform=transformation, download= True)  # 数据导入  transformation = transforms.Compose([transforms.ToTensor()])

  • train_d1 = torch.utils.data.DataLoader(train_ds, batch_size=64, shuffle=True)  # 转换为dataloader

  • 通过iter转换为迭代器: images, labels = next(iter(train_d1))

  • 数据转换为numpy: img = img.numpy()

  • 显示图片: plt.imshow(img, cmap='gray')

  • 创建卷积模型:

import torch.nn as nn
import torch.nn.functional as F
class Model(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(1, 32, 3)  # 3表示3*3卷积  
        # in 64 , 1, 28, 28 -> 64, 32, 26, 26
        self.pool = nn.MaxPool2d((2, 2))  # 池化 , # in : 64, 32, 13, 13
        self.conv2 = nn.Conv2d(32, 64, 3) # in: 64, 32, 13, 13 -> out: 64,64,11,11
        # 再加一层池化, input: 64, 64, 11, 11   ->  out: 64, 64, 5, 5 
        self.linear_1 = nn.Linear(64* 5* 5, 256)  # 计算
        self.linear_2 = nn.Linear(256, 10)  # 10个数字的one_hot编码
        
    def forward(self, input):
        x = F.relu(self.conv1(input))
        # 再加池化
        x = self.pool(x)
        # 卷积
        x = F.relu(self.conv2(x))
        x=  self.pool(x)
        # flatten
        x = x.view(-1, 64 * 5 * 5)  
        # 卷积
        x = F.relu(self.linear_1(x))
        x = self.linear_2(x)
        return x
  • 定义损失函数: loss_fn = torch.nn.CrossEntropyLoss()
  • optimizer 优化器: optimizer = optim.Adam(model.parameters(), lr=0.001)     # 防止过拟合
  • 数据位置调整: x, y = x.to(device), y.to(device)
  • 梯度清零: optimizer.zero_grad()
  • backward 反向传播: loss.backward()


一 手写数字识别

1.1 导包

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt
  • 查看torch版本
# torch 版本
torch.__version__   # '1.13.1+cpu'

1.2 定义GPU设置

  • 使用GPU进行训练
  • 把模型转移到GPU上
  • 将每一批次的训练数据转移到GPU上
device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
device     # device(type='cpu')

1.3 导入数据

transforms.ToTensor:

  • 1.把数据转化为tensor
  • 2.数据的值转化为0到1之间
  • 3.会把channel放到第一个维度上
# torchvision 内置了常用的数据集和常见的模型.
import torchvision
# transforms 用来做数据增强, 数据预处理的功能
from torchvision import datasets, transforms

transformation = transforms.Compose([transforms.ToTensor(), ])
# 训练数据
train_ds = datasets.MNIST('./',train = True,transform=transformation,download= True)
# 测试数据
test_ds = datasets.MNIST('./',train = False,transform=transformation,download= True)
  • 转换成dataloader
# 转换成dataloader
train_d1 = torch.utils.data.DataLoader(train_ds, batch_size=64, shuffle=True)
test_d1 = torch.utils.data.DataLoader(test_ds, batch_size=256)
  • 通过 iter 转换为迭代器
# 通过iter转换为迭代器
images, labels = next(iter(train_d1))
# pytorch中图片的表现形式[batch, channel, highet, width]
images.shape   # torch.Size([64, 1, 28, 28])
labels

img = images[0]
img.shape    # torch.Size([1, 28, 28])
img = img.numpy()
img.shape    # (1, 28, 28)

img = np.squeeze(img)  # 去掉1所在的维度
img.shape  # (28, 28)
plt.imshow(img, cmap='gray')

 1.4 创建模型

class Model(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(1, 32, 3)  # 3表示3*3卷积  
        # in 64 , 1, 28, 28 -> 64, 32, 26, 26
        self.pool = nn.MaxPool2d((2, 2))  # 池化 , # in : 64, 32, 13, 13
        self.conv2 = nn.Conv2d(32, 64, 3) # in: 64, 32, 13, 13 -> out: 64,64,11,11
        # 再加一层池化, input: 64, 64, 11, 11   ->  out: 64, 64, 5, 5 
        self.linear_1 = nn.Linear(64* 5* 5, 256)  # 计算
        self.linear_2 = nn.Linear(256, 10)  # 10个数字的one_hot编码
        
    def forward(self, input):
        x = F.relu(self.conv1(input))
        # 再加池化
        x = self.pool(x)
        # 卷积
        x = F.relu(self.conv2(x))
        x=  self.pool(x)
        # flatten
        x = x.view(-1, 64 * 5 * 5)  
        # 卷积
        x = F.relu(self.linear_1(x))
        x = self.linear_2(x)
        return x
    
model = Model()
# 把model拷贝到GPU 
model.to(device)

1.5 定义训练过程

# 定义损失函数
loss_fn = torch.nn.CrossEntropyLoss()
# optimizer 优化器, 防止过拟合
optimizer = optim.Adam(model.parameters(), lr=0.001)
# 训练过程
def fit(epoch, model, train_loader, test_loader):
    correct = 0
    total = 0
    running_loss = 0
    
    for x, y in train_loader:
        # 把数据放到GPU上
        x, y = x.to(device), y.to(device)
        y_pred = model(x)
        loss = loss_fn(y_pred, y)
        # 梯度清零
        optimizer.zero_grad()
        loss.backward()  # backward 反向传播
        optimizer.step()
        
        # 计算损失过程
        with torch.no_grad():
            y_pred = torch.argmax(y_pred, dim=1)
            correct += (y_pred == y).sum().item()
            total += y.size(0)
            running_loss += loss.item()
            
        # 循环完一次后, 计算损失
    epoch_loss = running_loss / len(train_loader.dataset)
    epoch_acc = correct / total

    # 测试数据的代码
    test_correct = 0
    test_total = 0
    test_running_loss = 0
    with torch.no_grad():
        for x, y in test_loader:
            x, y = x.to(device), y.to(device)
            y_pred = model(x)
            loss = loss_fn(y_pred, y)

            # 计算损失
            y_pred = torch.argmax(y_pred, dim=1)
            test_correct += (y_pred == y).sum().item()
            test_total += y.size(0)
            test_running_loss += loss.item()

    # 计算平均损失
    test_epoch_loss = test_running_loss /len(test_loader.dataset)
    test_epoch_acc = test_correct / test_total

    # 打印输出
    print('epoch:', epoch,
          'loss:', round(epoch_loss, 3),
          'accuracy:', round(epoch_acc, 3),
          'test_loss:', round(test_epoch_loss, 3),
          'test_accuracy:', round(test_epoch_acc, 3))
        
    return epoch_loss, epoch_acc, test_epoch_loss, test_epoch_acc
# 执行操作  # 可以打包一个history
epochs = 20
train_loss = []
train_acc = []
test_loss = []
test_acc = []

for epoch in range(epochs):
    epoch_loss, epoch_acc, test_epoch_loss, test_epoch_acc = fit(epoch, model,
                                                                 train_d1, test_d1)
    train_loss.append(epoch_loss)
    train_acc.append(epoch_acc)
    test_loss.append(test_epoch_loss)
    test_acc.append(test_epoch_acc)

1.6 添加dropout 和 BN层

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(3, 16, 3)   # 16 * 94 * 94
        self.pool = nn.MaxPool2d(2, 2)     # 16 * 47 * 47
        self.conv2 = nn.Conv2d(16, 32, 3)  # 32 * 45 * 45  -> pooling -> 32 * 22 * 22
        self.conv3 = nn.Conv2d(32, 64, 3)  # 64 * 20 * 20  -> pooling -> 64 * 10 * 10
        self.dropout = nn.Dropout()
        
        # batch , channel, height, width, 64, 
        self.fc1 = nn.Linear(64 * 10 * 10, 1024)
        self.fc2 = nn.Linear(1024, 256)
        self.fc3 = nn.Linear(256, 4)
        
    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = self.pool(F.relu(self.conv3(x)))
        # x.view(-1, 64 * 10 * 10)
        x = nn.Flatten()(x)
        x = F.relu(self.fc1(x))
        x = self.dropout(x)
        x = F.relu(self.fc2(x))
        x = self.dropout(x)
        x = self.fc3(x)
        return x
# 添加BN层.  # 定义模型
class Net(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(3, 16, 3)   # 16 * 94 * 94
        self.bn1 = nn.BatchNorm2d(16)
        self.pool = nn.MaxPool2d(2, 2)     # 16 * 47 * 47
        
        self.conv2 = nn.Conv2d(16, 32, 3)  # 32 * 45 * 45  -> pooling -> 32 * 22 * 22
        self.bn2 = nn.BatchNorm2d(32)
        self.conv3 = nn.Conv2d(32, 64, 3)  # 64 * 20 * 20  -> pooling -> 64 * 10 * 10
        self.bn3 = nn.BatchNorm2d(64)
        self.dropout = nn.Dropout()
        
        # batch , channel, height, width, 64, 
        self.fc1 = nn.Linear(64 * 10 * 10, 1024)
        self.bn_fc1 = nn.BatchNorm1d(1024)
        self.fc2 = nn.Linear(1024, 256)
        self.bn_fc2 = nn.BatchNorm1d(256)
        self.fc3 = nn.Linear(256, 4)
        
    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.bn1(x)
        x = self.pool(F.relu(self.conv2(x)))
        x = self.bn2(x)
        x = self.pool(F.relu(self.conv3(x)))
        x = self.bn3(x)
        # x.view(-1, 64 * 10 * 10)
        x = nn.Flatten()(x)
        x = F.relu(self.fc1(x))
        x = self.bn_fc1(x)
        x = self.dropout(x)
        x = F.relu(self.fc2(x))
        x = self.bn_fc2(x)
        x = self.dropout(x)
        x = self.fc3(x)
        return x

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/392399.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Spring高频面试问题汇总

1 什么是spring?Spring是一个轻量级Java开发框架,最早有Rod Johnson创建,目的是为了解决企业级应用开发的业务逻辑层和其他各层的耦合问题。它是一个分层的JavaSE/JavaEE full-stack(一站式)轻量级开源框架,为开发Jav…

Day909.MySQL 不同的自增 id 达到上限以后的行为 -MySQL实战

MySQL 不同的自增 id 达到上限以后的行为 Hi,我是阿昌,今天学习记录的是关于MySQL 不同的自增 id 达到上限以后的行为的内容。 MySQL 里有很多自增的 id,每个自增 id 都是定义了初始值,然后不停地往上加步长。 虽然自然数是没有…

TSP 问题求解的最好方法 LKH

目前可以查到的最好的方法求解TSP问题是 LKH,所以本篇文章介绍如何使用Matlab 调用LKH 参考文档:用matlab调用迄今为止最强悍的求解旅行商(TSP)的算法-LKH算法_wx6333e948c3602的技术博客_51CTO博客 【LKH算法体验】用matlab调用…

游戏玩的多,陪玩你了解的多吗?用Python来采集陪玩数据,看看行情和美照

前言 (。・∀・)ノ゙嗨 大家好 现在应该每个人都玩过游戏吧,有些的上瘾,天天玩停不下来,有些的倒是没啥感觉 有游戏就肯定有陪玩啊,毕竟当朋友忙的时候,自己一个…

天琊超级进程监视器的应用试验(19)

实验目的 1、了解进程概念及其基本原理; 2、掌握天琊超级进程监视器的安装与使用。预备知识 本实验要求实验者具备如下的相关知识。 操作系统的安全配置是整个系统安全审计策略核心,其目的就是从系统根源构筑安全防护体系,通过用户的一…

Linux系统安装Tomcat

(1)登录Tomcat网址 https://tomcat.apache.org/,下载Tomcat安装包(2)登录我们的虚拟机,使用Linux系统中的“rz”命令上传压缩包(注意:如果使用“rz”上传压缩包出现错误时&#xff0…

STM32模拟SPI时序控制双路16位数模转换(16bit DAC)芯片DAC8552电压输出

STM32模拟SPI时序控制双路16位数模转换(16bit DAC)芯片DAC8552电压输出 STM32部分芯片具有12位DAC输出能力,要实现16位及以上DAC输出需要外挂DAC转换ASIC。 DAC8552是双路16位DAC输出芯片,通过SPI三线总线进行配置控制输出。这里…

苹果新卫星专利公布,苹果Find My功能知多少

根据美国商标和专利局(USPTO)公示的清单,苹果公司获得了一项新的卫星专利,可在非地面网络(Non-Terrestrial Networks,NTN)中定位用户设备(iDevice、MacBook 等)。 在专利…

Docker(六)--Docker网络--单机与跨主机(macvlan)容器通信

文章目录一、本地节点通信1.DNS2.joind网络模式3.端口映射4.跨主机容器通信二、跨主机容器通信1.相同网段进行通信2.不同网段进行通信一、本地节点通信 1.DNS 容器之间除了使用ip通信外,还可以使用容器名称通信。docker 1.10开始,内嵌了一个DNS server。…

【算法进阶】回溯(backtracking)基本逻辑,以及常见回溯问题(全排列、解数独、八皇后)

文章目录一、引言二、回溯法基本逻辑三、回溯法代码模板三、回溯法常见问题3.1 组合逻辑代码3.2 子集逻辑代码3.3 子集Ⅱ(未解答)逻辑代码3.4 分割回文串逻辑代码3.5 组合总和Ⅰ逻辑代码3.6 组合总和Ⅱ(未解答)逻辑代码3.7 组合总…

Mycat

Mycat 1.概述 1.Mycat是数据中间件2.中间件:连接软件组件和应用的计算机软件,便于软件和各部件的交互3.数据中间件:连接Java应用程序与数据库的软件2.适用场景 1.Java与数据库紧耦合(直接连接)2.高访问量高并发对数据库压力(集群)3.读写请求数据不一致(读写分离+主从复制)3.…

关于Gooey复选框CheckBox的使用

折腾了我一下午 官网也没发现具体的使用方法 老是报错 索引超出范围 我就很疑惑 百度也没有答案后来我修改成了非必参 加-- 这是不选中操作这是选中操作他说必须要有一个参数 我有啊 没搞懂 后来 我就这样(根据他报错提示来的)果真就没了问题这样也没问题 具体我还是没搞懂 反正…

K_A16_001 基于STM32等单片机驱动HX711称重模块 串口与OLED0.96双显示

K_A16_001 基于STM32等单片机驱动HX711称重模块 串口与OLED0.96双显示一、资源说明二、基本参数参数引脚说明三、驱动说明对应程序:四、部分代码说明1、接线引脚定义1.1、STC89C52RCHX711称重模块1.2、STM32F103C8T6HX711称重模块五、基础知识学习与相关资料下载六、视频效果展…

项目实战典型案例17——环境混用来带的影响

环境混用来带的影响一:背景介绍背景出现的事故二:思路&方案环境混用的危害如何彻底避免环境混用的问题四:总结五:升华一:背景介绍 本篇博客是对对项目开发中出现的环境混用来带的影响进行的总结并进行的改进。目的…

你想知道的OSPF协议知识点都在这里了

1、OSPF协议概述 1)为什么需要动态路由协议? 静态路由是由工程师手动配置和维护的路由条目,命令行简单明确,适用于小型或稳定的网络。静态路由有以下问题:a)无法适应规模较大的网络:随着设备数量增加,配置量…

SpringBoot学习笔记(三)整合Logback日志框架

一、日志框架介绍1、常见日志框架目前我们常见的日志框架为Log4j、Log4j2、Logback这3种,并且现在很多的工具包里面都会自带日志框架,因此我们使用要格外小心日志框架的冲突。2、三种日志框架之间的关系最先有Log4j,然后因为Log4j有很大的性能…

uniapp系列-图文并茂手把手教你hbuilder进行uniapp云端打包 - 安心打包

什么是安心打包 提交App的模块配置信息到云端,在云端打包机生成原生代码包 为什么使用云打包 更安全:打包时不提交应用代码、证书等信息更快速:非首次打包时不用提交云端打包机排队等待,本地直接出包省流量:减少了打…

Linux开发环境配置--正点原子阿尔法开发板

Linux开发环境配置–正点原子阿尔法开发板 文章目录Linux开发环境配置--正点原子阿尔法开发板1.网络环境设置1.1添加网络适配器1.2虚拟网络编辑器设置1.3Ubuntu和Windows网络信息设置Ubuntu网络信息配置方式:1.系统设置->网络->选项2.配置网络文件2源码准备2.…

Vuex 状态管理

文章目录Vuex概述安装单向数据流Vuex核心概念StatemapState 辅助函数扩展运算符GettermapGetters 辅助函数Mutation提交载荷提交载荷对象对象风格提交使用常量替代mutation事件类型Action异步分发Module命名空间Vuex 概述 Vuex 是一个状态管理库,用于管理 Vue.js …

CRM系统是什么?为什么使用它?

CRM系统是什么?为什么使用它?这篇来简单说下,CRM系统是什么?能帮助我们做什么?有什么好处? 01 CRM系统是什么? 我总结了7种关于CRM的概念,任意一个解释得其实都没什么问题&#xff…