pytorch快速入门

news2025/1/17 5:58:17

文章目录

    • 一、Tensors
      • tensors的初始化(四种):
      • tensors的属性
      • 和numpy的联系
    • 二、数据集的数据加载器
      • 加载数据集
      • 标号和可视化
      • 自己创建数据集
      • 用DataLoaders准备数据用于训练
      • Transforms
    • 三、神经网络
      • 准备训练设备
      • 定义网络的类
      • 模型的layers
      • nn.Flatten
      • nn.Linear
      • nn.ReLU
      • nn.Sequential
      • nn.Softmax
      • 模型的参数
    • 四、自动求导
      • Tensors,Functions and Computational Graph
      • 计算梯度
      • 不计算梯度
      • tensor输出和雅可比积
    • 五、优化模型参数
      • 前置代码
      • 超参数
      • 优化训练
      • Loss Function
      • Optimizer
      • 完整实现
      • 六、保存和加载模型
      • 保存和加载模型权重
      • 保存和加载模型权重
      • 保存和加载模型权重
      • 保存和加载模型权重

一、Tensors

Tensors贯穿pytorch始终

和多维数组很相似,一个特点是可以加速硬件加速

tensors的初始化(四种):

  1. 直接给值:
data = [[1,2],[3,4]]
x_data = torch.tensor(data)
  1. 从numpy数组转化
np_arr = np.array(data)
x_np = torch.from_numpy(np_array)
  1. 从另一个tensor
x_np = torch.from_numpy(np_array)
  1. 赋01或随机值
shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensor = torch.zeros(shape)

tensors的属性

使用GPU方式

if torch.cuda_is_available():
    tensor = tensor.to("cuda")
  1. 索引和切片
tensor = torch.ones(4,4)
print(tensor[0]) #第一行(0开始)
print(tensor[;,0]) #第一列(0开始)
print(tensor[...,-1]) #最后一列
  1. 连接
t1 = troch.cat([tensor, tensor],dim = 1) # 沿着第一维的方向拼接
  1. 矩阵乘法(三种办法,类似于运算符重载、成员函数和非成员函数)
y1 = tensor @ tensor
y2 = tensor.matmul(tensor.T)
y3 = torch.rand_like(tensor)
torch.matmul(tensor, tensor.T, out=y3)

  1. 点乘
z1 = tensor * tensor
z2 = tensor.mul(tensor)
z3 = tensor.rand_like(tensor)
torch.mul(tensor, tensor, out=z3)
  1. 单元素tensor求值
agg = tensor.sum()
agg_item = agg.item()
print(agg_item, type(agg_item))
  1. In-place操作(就是会改变成员内容的成员函数,以下划线结尾)
tensor.add_(5) #每个元素都+5

节约内存,但是会丢失计算前的值,不推荐使用

和numpy的联系

  1. tensor转numpy数组
t = torch.ones(5)
n = t.numpy()

类似于引用,并没有新建内存,二者同时修改同步

  1. numpy数组转tensor
n = np.ones(5)
t = torch.from_numpy(n)

同样为引用,一个的修改会对另一个有影响

二、数据集的数据加载器

加载数据集

以FasnionMNIST为例,需要四个参数

  • root是路径
  • train区分训练集还是测试集
  • download表示如果root找不到,就得从网上下载
  • transform表明数据的下载格式
import torch
from torch.utils.data import Dataset
from torchvision import datasets
from torchvision.transforms import ToTensor
import matplotlib.pyplot as plt

training_data = datasets.FansionMNIST(
	root = "data",
    train = True,
    download = True,
    transform = ToTensor()
)

test_data = datasets.FansionMNIST(
	root = "data",
    train = Flase,
    download = True,
    transform = ToTensor()
)

标号和可视化

labels_map = {
    0: "T-Shirt",
    1: "Trouser",
    2: "Pullover",
    3: "Dress",
    4: "Coat",
    5: "Sandal",
    6: "Shirt",
    7: "Sneaker",
    8: "Bag",
    9: "Ankle Boot",
}

figure = plt.figure(figsize=(8,8))

cols, rows = 3, 3
for i in range(1, cols * row + 1):
    sample_idx = torch.randint(len(training_data), size=(1,)).item()
    img, label = training_data[sample_idx]
    figure.add_subplot(rows, cols, i)
    plt.title(labels_map[label])
    plt.axis("off")
    plt.imshow(img.squeeze(), cmap="gray")
    
plt.show()

自己创建数据集

必须实现三个函数__init__,__len__,__getitem__

import os
import pandas as pd
from torchvision.io import read_image

class CustomImageDataset(Dataset):
    def __init__(self, annotations_file, img_dir, transform=None, target_transform=None):
        self.img_labels = pd.read_csv(annotations_file)
        self.img_dir = img_dir
        self.transform = transform
        self.target_transform = target_transform
    def __len__(self):
        return len(self.img_labels)
    
    def __getitem__(self, idx):
        img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0])
        image = read_image(img_path)
        label = self.img_labels.iloc[idx, 1]
        if self.transform:
            image = self.transform(image)
        if self.target_transform:
            label = self.target_transform(label)
        
        return image, label
          
  • __init__类似于构造函数
  • __len__求数据个数
  • __getitem__按下标找数据和标签,类似重载[]

用DataLoaders准备数据用于训练

# 展示图像和标签
train_features, train_labels = next(iter(train_dataloader))
print(f"Feature batch shape: {train_features.size()}")
print(f"Labels batch shape: {train_labels.size()}")

img = train_features[0].squeeze()
label = train_labels[0]
plt.imshow(img, cmap="gray")
plt.show()
print(f"Label: {label}")

Transforms

让数据转换成需要的形式

transform指定feature的转换

target_transform指定标签的转换

比如,需要数据从PTL Image变成Tensors,标签从整数变成one-hot encoded tensors

上述用到了两个技术,ToTensor()Lambda表达式

ToTensor()将PIL images或Numpy数组转化成FloatTensor,每个像素的灰度转化到[0,1]范围内

Lambda类似C++里的Lambda表达式,我们需要将整数转化为one-hot encoded tensor, 就先创建一个长度为数据标签类型的全0的Tensor,然后用scatter_()把第y个值改为1。此时,scatter的index接受的参数也是Tensor。

三、神经网络

神经网络是一些层或者模块,对数据进行处理。

torch.nn提供了诸多构造神经网络的模块,模块化的结构方便了管理复杂结构。

接下来以在FashionMNIST上构造一个图像分类器为例。

import os
import torch
from torch.utils.data import DataLoader
from torchvision import datasets, tranforms

准备训练设备

  • GPU
  • CPU
device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Using {device} device")

定义网络的类

nn.Module继承

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
        	nn.Linear(28 * 28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )
        
    def forward(self, x) :
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

创建一个实例(对象),放到device上

model = NeuralNetwork().to(device)
print(model)

跑一下结果

Using cpu device
NeuralNetwork(
	(flatten): Flatten(start_dim=1, end_dim=-1)
    (linear_relu_stack): Sequential(
    	(0): Linear(in_features=784, out_features=512, bias=True)
        (1):ReLU()
        (2):Linear(in_features=512, out_features=512,bias=True)
        (3):ReLU()
        (4):Linear(in_features=512, out_features=10, bias=True)
    )
)

结果是返回值的softmax,是个10维的概率,找到最大的就是预测结果

X = torch.rand(1, 28, 28, device=device)
logits = model(X)
pred_probab = nn.Softmax(dim=1)(logits)
y_pred = pred_probab.argmax(1)
print(f"Predicted class: {y_pred}")

模型的layers

以3张28*28的图像为例,分析它在network里的状态

input_image = torch.rand(3, 28, 28)
print(input_image.size())

'''
torch.Size([3,28,28])
'''

nn.Flatten

Flatten顾名思义,扁平化,用于将2维tensor转为1维

flatten = nn.flatten()
flat_image = flatten(input_image)
print(flag_image.size())

'''
torch.Size([3,784])
'''

nn.Linear

Linear,做线性变换

layer1 = nn.Linear(in_features=28*28, out_features=20)
hidden1 = layer1(flag_image)
print(hidden1.size())

'''
torch.Size([3,20])
'''

nn.ReLU

非线性激活函数,在Linear层后,增加非线性,让神经网络学到更多的信息

hidden1 = nn.ReLU()(hidden1)

nn.Sequential

Sequential,序列的,类似于把layers一层一层的摆着

seq_modules = nn.Sequential(
	flatten,
    layer1,
    nn.ReLU(),
    nn.Linear(20, 10)
)
input_image = torch.rand(3, 28, 28)
logits = seq_modules(imput_image)

nn.Softmax

最后一层的结果返回一个在[-inf,inf]的值logits,通过softmax层后,映射到[0,1]

这样[0,1]的值可以作为概率输出,dim指定和为1的维度

softmax = nn.Softmax(dim=1)
pred_probab = softmax(logits)

模型的参数

这些layers是参数化的,就是说在训练中weights和biases不断被优化

下述代码输出这个模型的所有参数值

for name, param in model.named_parameters():
    print(name, param.size(), param[:2])

四、自动求导

训练神经网络的时候,最常用的是反向传播,模型参数根据loss function的梯度进行调整。

为了求梯度,也就是求导,使用torch.autograd

考虑到就一个layer的网络,输入x,参数w和b,以及一个loss function,也就是

import torch

x = torch.ones(5) # input tensor
y = torch.zeros(3) # expected output
w = torch.randn(5, 3, requires_grad=True)
b = torch.randn(3, requires_grad=True)
z = torch.matmul(x, w) + b
loss = torch.nn.functional.binary_cross_entropy_with_logits(z, y)

Tensors,Functions and Computational Graph

考虑这个过程的Computational Graph,如下

img

这个一定是DAG (有向无环图)

为了计算loss在w和b方向上的梯度,我们给他们设置requires_grad

w.requires_grad(True)
b.requires_grad(True)

Functions实际上是对象,有计算正向值和反向导数的成员。

print(z.grad_fn)
print(loss.grad_fn)

计算梯度

要计算losswb的偏导,只需使用

loss.backward()

于是就得到了

print(w.grad)
print(b.grad)

注意:

  • 只能计算图里叶子的梯度,内部的点不能算
  • 一张图只能计算一次梯度,要保留节点的话,backward要传retain_graph=True
import torch

x = torch.randn((1, 4), dtype=torch.float32, requires_grad=True)
y = x ** 2
z = y * 4

print(x)
print(y)
print(z)
loss1 = z.mean()
loss2 = z.sum()
print(loss1, loss2)
loss1.backward() # 这个代码执行正常,但是执行完中间变量都free了,所以下一个会出现问题
print(loss1, loss2)
loss2.backward() # 这时会引发错误

要保留节点的话,可把loss1的那行改成

loss1.backward(retain_graph=True)

不计算梯度

有时我们不需要计算梯度,比如模型已经训练好了,只需要正向使用

这时算梯度就很拖累时间,所以要禁用梯度

z = torch.matmul(x, w) + b
print(z.requires_grad)

with torch.no_grad():
    z = torch.matmul(x, w) + b
print(z.requires_grad)

'''
True
False
'''

另一个办法就是用.detach()

z = torch.matmul(x, w) + b
z_det = z.detach()
print(z_det.requires_grad)

'''
False
'''

tensor输出和雅可比积

如果函数的输出是tensor,就不能简单算梯度了

结果是一个矩阵(其实就是依次遍历x和y的分量,求偏导)

img

具体来说,把v当参数传进去

inp = torch.eye(5, requires_grad=True)
out = (inp + 1).pow(2)
out.backward(torch.ones_like(inp), retain_graph=True)

五、优化模型参数

有了模型,接下来要进行训练、验证和测试

前置代码

首先要加载数据,建立模型

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda

training_data = datasets.FashionMNIST (
	root = "data",
    train = True,
    download = True,
    transform = ToTensor()
)

test_data = datasets.FashionMNIST(
	root = "data",
    train = False,
    download = True,
    tranform = ToTensor()
)

train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
        	nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )
    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

model = NeuralNetwork()

超参数

定义三个超参数

  • Epochs数:数据集迭代次数
  • Batch size:单次训练样本数
  • Learning Rate:学习速度

优化训练

接下来,进行多轮的优化,每一轮称为一个epoch

每个epoch包含两部分,训练loop和验证/测试loop

Loss Function

PyTorch提供常见的Loss Functions

  • nn.MSLoss(Mean Square Error)
  • nn.NLLLoss(Negative Log Likelihood)
  • nn.CrossEntropyLoss(交叉熵)

使用交叉熵,把原始结果logits放进去

loss_fn = nn.CrossEntropyLoss()

Optimizer

初始化优化器,给它需要优化的参数,和超参数Learning Rate

optimizer = torch.optim.SGC(model.parameters(), lr=learning_rate)

优化器在每个epoch里做三件事

  • optimizer.zero_grad()将梯度清零
  • loss.backward()进行反向传播
  • optimizer.step()根据梯度调整参数

完整实现

train_loop里训练,test_loop里测试

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
 
training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)
 
test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)
 
train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)
 
class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )
 
    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits
 
model = NeuralNetwork()
 
learning_rate = 1e-3
batch_size = 64
epochs = 5
 
# Initialize the loss function
loss_fn = nn.CrossEntropyLoss()
 
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
 
def train_loop(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X, y) in enumerate(dataloader):
        # Compute prediction and loss
        pred = model(X)
        loss = loss_fn(pred, y)
 
        # Backpropagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
 
        if batch % 100 == 0:
            loss, current = loss.item(), batch * len(X)
            print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")
 
 
def test_loop(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    test_loss, correct = 0, 0
 
    with torch.no_grad():
        for X, y in dataloader:
            pred = model(X)
            test_loss += loss_fn(pred, y).item()
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()
 
    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")
 
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
 
epochs = 10
for t in range(epochs):
    print(f"Epoch {t + 1}\n-------------------------------")
    train_loop(train_dataloader, model, loss_fn, optimizer)
    test_loop(test_dataloader, model, loss_fn)
print("Done!")

六、保存和加载模型

import torch
import torchvison.models as models

保存和加载模型权重

通过torch.save方法,可以将模型保存到state_dict类型的字典里。

model = models.vgg16(pretrained=True)
torch.save(model.state_dict(), 'model_weights.pth')

而要加载的话,需要先构造相同类型的模型,然后把参数加载进去

model = models.vgg16()
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()

一定要调一下model.eval(),防止后续出错

保存和加载模型权重

上一种方法里,需要先实例化模型,再导入权值

有没有办法直接保存和加载整个模型呢?

使用不传model.state_dict()参数,改成model

保存方式:

torch.save(model, 'model.pth')

加载方式:

model = torch.load('model.pth')

参考链接:

der, model, loss_fn, optimizer)
test_loop(test_dataloader, model, loss_fn)
print(“Done!”)


### 六、保存和加载模型

```python
import torch
import torchvison.models as models

保存和加载模型权重

通过torch.save方法,可以将模型保存到state_dict类型的字典里。

model = models.vgg16(pretrained=True)
torch.save(model.state_dict(), 'model_weights.pth')

而要加载的话,需要先构造相同类型的模型,然后把参数加载进去

model = models.vgg16()
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()

一定要调一下model.eval(),防止后续出错

保存和加载模型权重

上一种方法里,需要先实例化模型,再导入权值

有没有办法直接保存和加载整个模型呢?

使用不传model.state_dict()参数,改成model

保存方式:

torch.save(model, 'model.pth')

加载方式:

model = torch.load('model.pth')

参考链接:

  1. https://zhuanlan.zhihu.com/p/515043918

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/23864.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Python之基本扩展模块

一、datetime模块 1.1 主要的模块 datetime.date() #处理日期(年、月、日) datetime.time() #处理时间(时、分、秒和毫秒) datetime.datetime() #处理日期时间 datetime.timedelta() #处理时段(时间间隔…

基于Java+springboot+SSM的医疗报销系统的设计与实现

项目开发工具: IDEA, MYSQL, JDK1.8 项目使用技术: SpringBoot, SSM, H-UI, JSP, JQUERY, HTML 医疗报销系统【功能列表】 【前台用户】登录,注册,首页新闻轮播图,首页新闻按分类展示列表,栏目分类模块,报销流程模块,修改密码,个人信息展示,新增家庭成员, 家庭成品列表展示,…

Spring框架教程

Spring框架教程Spring框架教程1. 前言2. Spring框架概述2.1 什么是spring?2.2 Spring有哪些优点?2.3 Spring 有两个核心部分:IoC 和AOP2.4 Spring 特点2.5 Spring架构图,Spring由哪些模块组成?3. IOC容器3.1 IOC底层原理3.2 什么…

three.js初时基础

第一步:找到Three.js – JavaScript 3D Library (threejs.org) 第二步 第三步: 第四步: 安装依赖 第五步:新建一个项目文件,在文件中npm init 进行初始化出现一个package.json 第六步:配置安装🚀 快速开…

QtAV环境配置

本文章主要是使用MSVC编译器,因为QtAV是依赖FFmpeg的,所以需要下载QtAV源码和QtAV-depends-windows-x86x64; 官网地址:http://www.qtav.org/ Github 地址:https://github.com/wang-bin/QtAV 1,解压 将文件…

产品生命周期(PLM)发展历程及技术核心分析指导

产品生命周期管理(Product Lifecycle Management,简称PLM),是一种为企业产品全生命周期提供服务的软件解决方案,可以应用于在单一地点或分散在多个地点的企业内部,以及在产品研发领域,具有协作关系的企业之间&#xff…

windows 锁屏时执行某个程序

目录 前言 1 打开锁屏事件 2 创建任务计划程序 3 测试 前言 以windows10为例,这个功能的核心是使用windows自带的“任务计划程序”,可以帮助您实现触发器操作。 1 打开锁屏事件 默认情况下,锁屏事件并不会被系统记录,需要手动打…

vue3项目的创建、入口文件、全局方法、生命周期函数、setup中的生命周期函数使用、data的函数方式

文章目录1. 创建vue3项目1.1 基于webpack的工程创建1.2 通过vite来创建vue3项目vue3插件推荐1.3 通过npm init vue3创建项目2. vue3入口文件3. vue3中的全局方法修改4. vue3中封装全局方法5. vue3生命周期函数6. setup中生命周期使用7. data函数方式1. 创建vue3项目 1.1 基于w…

Spring Boot中消息是什么?同步异步消息是啥/都包含那些技术?Activate MQ消息怎么整合

写在前面: 继续记录自己的SpringBoot学习之旅,这次是SpringBoot应用相关知识学习记录。若看不懂则建议先看前几篇博客,详细代码可在我的Gitee仓库SpringBoot克隆下载学习使用! 3.5.4 消息 3.5.4.1 简述 消息发送方:…

力扣(LeetCode)29. 两数相除(C++)

快速乘 题解只使用了 intintint 。 万恶的 INT_MININT\_MININT_MIN,怎么处理?打不过就加入——被除数和除数转为负数计算 。 xxx 除以 yyy ,等于从 xxx 中拿出若干个 yyy 。 从 xxx 中拿出 yyy 的数量,就是 xyx\div yxy 的商。 y…

Allegro差分自动添加回流地孔操作指导

Allegro差分自动添加回流地孔操作指导 Allegro自带给差分添加回流地孔的功能,具体操作如下 点击connect命令,任意拉一对差分 鼠标右击,选择Return Path。。。,选择settings 会弹出设置的对话框,Assign net name给孔分配一个网络,一般是GND, Return Path via 选择添加…

2019年1+X 证书 Web 前端开发中级理论考试题目原题+答案——第五套

📚文章目录 🎯关于1X标准 🎯关于中级考点 ⏩💻答案速查 理论题(满分100分),包括单选题、多选题、判断题。 📑一、单选题(每小题2分,共30小题,共60分) &…

Docker的基础命令

1.查找可用的镜像 docker search 镜像名 例:docker search nginxdocker search mysql2.拉取官方镜像(及下载镜像) docker pull 镜像名:标签例:docker pull nginx #表示现在最新版本的nginx镜像docker pull nginx:1.14…

使用frida发送微信消息给好友

前言 之前说过怎么用python来发送微信文本消息,原理大概就是构造内存机器码。其实frida也可以做类似操作,构造数据和机器码,然后调用。我就不重复操作了,这里说下另一种方法。 想使用frida来发送消息这个想法很早之前就有了&…

SQLlite

SQLlite ​ SQLite是一个软件库,实现了自给自足的、无服务器的、零配置的、事务性的 SQL 数据库引擎。 一、什么是 SQLite ​ SQLite是一个进程内的库,实现了自给自足的、无服务器的、零配置的、事务性的 SQL 数据库引擎。它是一个零配置的数据库&…

Webpack 5 超详细解读(三)

21.babel-loader 使用 使用babel-loader对js文件进行处理,在lg.Webpack.js配置文件中配置js文件规则。 使用单独的插件进行转换 使用预设进行转换 使用babel.config.js配置文件进行babel配置 const path require(path) const CopyWebpackPlugin require(copy-W…

解决哈希冲突的方案

什么是哈希表 一种实现关联数组抽象数据类型的数据结构,这种结构可以将关键码映射到给定值。简单来说哈希表(key-value)之间存在一个映射关系,是键值对的关系,一个键对应一个值。 什么是哈希冲突 当两个不同的数经过…

基于 Text-CNN 的情感分析(文本分类)----概念与应用

文章目录基于Text-CNN情感分析卷积的基本概念Text-CNN的核心思想实现数据预处理批量处理操作--填充与截断拆分训练集与测试集定义Text-CNN模型设计模型定义与训练参数训练并评估模型结语基于Text-CNN情感分析 大家都知道,CNN(Convolutional Neural Network) 是深度…

非近轴衍射分束器的设计与严格分析

摘要 直接设计非近轴衍射分束器仍然是很困难的。由于有相对较大的分束角,元件的特征尺寸一般等于或小于工作波长。因此,它通常超出近轴建模方法的范围。在此示例中,将迭代傅里叶变换算法(IFTA)和薄元件近似&#xff08…

在线的MySQL数据库表结构对比工具

在项目部署上线前,测试版和正式版的数据库表结构做过哪些变更,如果没有做好实时记录,那么就需要对比找出差异,否则代码部分更新后,可能导致功能异常。 数据库表结构对比的工具很多,但是为了方便部署同步的…