机器学习笔记20241017

news2024/12/23 20:31:23

文章目录

    • torchvision
    • dataloader
    • nn.module
    • 卷积
    • 非线性激活
    • 模型选择
        • 训练误差
        • 泛化误差
    • 正则化
      • 权重衰退的基本概念
      • 数学表示
      • 权重衰退的效果
      • 物理解释
    • 数值稳定性(Gradient Vanishing)
      • 梯度消失
        • 原因
        • 解决方法
      • 梯度爆炸(Gradient Explosion)
        • 定义
        • 原因
        • 解决方法
      • 总结

继续跟着小土堆学pytorch

torchvision

# 导入torchvision库,主要用于处理图像数据集和图像变换
import torchvision
# 从torch.utils.tensorboard中导入SummaryWriter,用于将数据写入TensorBoard
from torch.utils.tensorboard import SummaryWriter

# 创建一个图像变换的组合,使用ToTensor()将PIL图像或numpy数组转换为PyTorch张量
dataset_transform = torchvision.transforms.Compose([
    # 将图像转换为Tensor(张量)
    torchvision.transforms.ToTensor()
])

# 下载并加载CIFAR-10训练集,设置transform为我们定义的dataset_transform(将图像转换为张量)
train_set = torchvision.datasets.CIFAR10(
    root="./dataset",          # 数据集存储的根目录
    train=True,                # 设置为True表示加载训练集
    transform=dataset_transform, # 使用我们定义的图像变换
    download=True              # 如果数据集不存在,则下载它
)

# 下载并加载CIFAR-10测试集,transform同样为将图像转换为张量
test_set = torchvision.datasets.CIFAR10(
    root="./dataset",          # 数据集存储的根目录
    train=False,               # 设置为False表示加载测试集
    transform=dataset_transform, # 使用相同的图像变换
    download=True              # 如果数据集不存在,则下载它
)

# 创建一个SummaryWriter实例,参数是log文件的存储路径,"p10"为log文件目录
writer = SummaryWriter("p10")

# 从测试集中获取第一张图像及其对应的标签
img, target = test_set[0]

# 打印图像张量的值,方便调试
print(img)

# 打印图像对应的标签(数字形式),方便调试
print(target)

# 打印测试集中该标签对应的类别名称,如'cat', 'dog'等
print(test_set.classes[target])

# 循环处理测试集中的前10张图像
for i in range(10):
    # 获取第i张图像及其标签
    img, target = test_set[i]
    
    # 将图像写入TensorBoard,标签名为"test_set",图像的全局步数为i
    writer.add_image("test_set", img, i)

# 关闭SummaryWriter,确保数据写入完成
writer.close()

dataloader

# 导入必要的库
import torchvision  # 用于加载和转换图像数据
from torch.utils.data import DataLoader  # 用于批量加载数据
from torch.utils.tensorboard import SummaryWriter  # 用于将数据可视化到TensorBoard

# 下载并加载CIFAR-10数据集,这里设置train=True表示我们加载训练数据集
test_data = torchvision.datasets.CIFAR10(
    root="./dataset",  # 数据集下载到当前文件夹中的'dataset'文件夹中
    train=True,  # 加载训练集
    transform=torchvision.transforms.ToTensor(),  # 将图像转换为Tensor(张量),因为神经网络处理的是张量
    download=True  # 如果数据集不存在,则从网上下载
)

# 使用DataLoader将数据集分批加载,方便我们在训练时批量处理数据
test_loader = DataLoader(
    dataset=test_data,  # 需要加载的数据集
    batch_size=64,  # 每次加载64张图片
    shuffle=True,  # 打乱数据集中的图片顺序,防止模型记住图片的顺序,影响训练效果
    num_workers=0,  # 加载数据的子进程数量,0表示不使用额外进程
    drop_last=True  # 如果最后一批次数据少于64张,丢弃这批次
)

# 查看单张图片和对应标签
img, target = test_data[0]  # 取出第0张图片和它的标签
print(img.shape)  # 打印图片的形状,应该是[3, 32, 32],表示3个颜色通道的32x32像素图片
print(target)  # 打印图片的标签(数字),每个数字对应一个分类

# 创建SummaryWriter对象,用于将数据写入TensorBoard
writer = SummaryWriter("DataLoader")  # 'DataLoader'是日志文件的保存路径

# 模拟进行2个轮次(epochs)的训练(虽然这里没有真正训练,只是模拟数据处理流程)
for epoch in range(2):
    step = 0  # 记录每个epoch中的步骤数
    for data in test_loader:  # 遍历加载的数据
        imgs, targets = data  # 从批次中取出图片和对应的标签
        # 将批次中的图片写入TensorBoard,每次写入64张图片
        writer.add_images("Epoch:{}".format(epoch), imgs, step)
        step += 1  # 记录当前步数

# 关闭SummaryWriter,结束写入
writer.close()


nn.module


# 导入 PyTorch 库
import torch
# 从 torch 库中导入 nn 模块,nn 模块是用于构建神经网络的工具
from torch import nn

# 定义一个名为 Tudui 的类,继承自 nn.Module
class Tudui(nn.Module):
    # 初始化方法,构造函数
    def __init__(self):
        # 调用父类的初始化方法,确保 nn.Module 的初始化
        super().__init__()

    # 前向传播方法,定义神经网络的计算过程
    def forward(self, input):
        # 将输入加 1,计算输出
        output = input + 1
        # 返回输出
        return output

# 创建 Tudui 类的一个实例
tudui = Tudui()
# 创建一个张量(tensor),值为 1.0
x = torch.tensor(1.0)
# 将张量 x 传入 tudui 实例,得到输出
output = tudui(x)
# 打印输出
print(output)

卷积

在 PyTorch 中,二维卷积函数 F.conv2d 需要输入一个 4D 张量,形状为 (N, C, H, W)将输入张量重塑为 4D 张量,形状为 (N, C, H, W)


import torch  # 导入 PyTorch 库
import torch.nn.functional as F  # 从 PyTorch 导入神经网络功能模块

# 定义输入张量(模拟图像数据)
input = torch.tensor([[1, 2, 0, 3, 1],   # 5x5 的二维张量
                      [0, 1, 2, 3, 1],
                      [1, 2, 1, 0, 0],
                      [5, 2, 3, 1, 1],
                      [2, 1, 0, 1, 1]])

# 定义卷积核(过滤器)
kernel = torch.tensor([[1, 2, 1],  # 3x3 的卷积核
                       [0, 1, 0],
                       [2, 1, 0]])

# 将输入张量重塑为 4D 张量,形状为 (N, C, H, W)
# N: 批量大小(batch size),这里是 1
# C: 通道数(channel),这里是 1(灰度图像)
# H: 高度(height),这里是 5
# W: 宽度(width),这里是 5
input = torch.reshape(input, (1, 1, 5, 5))

# 将卷积核重塑为 4D 张量,形状为 (N, C, H, W)
# 这里同样是 1 个批量,1 个通道,卷积核的高度和宽度均为 3
kernel = torch.reshape(kernel, (1, 1, 3, 3))

# 打印输入张量的形状
print(input.shape)  # 输出: torch.Size([1, 1, 5, 5])
# 打印卷积核的形状
print(kernel.shape)  # 输出: torch.Size([1, 1, 3, 3])

# 执行卷积操作,步幅为 1
output = F.conv2d(input, kernel, stride=1)
print(output)  # 打印卷积后的输出

# 执行卷积操作,步幅为 2
output2 = F.conv2d(input, kernel, stride=2)
print(output2)  # 打印卷积后的输出

# 执行卷积操作,步幅为 1,并且添加了填充(padding)为 1
output3 = F.conv2d(input, kernel, stride=1, padding=1)
print(output3)  # 打印卷积后的输出

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
import os
print(os.getcwd()) 
# 加载 CIFAR-10 数据集,使用 ToTensor 转换为张量格式
dataset = torchvision.datasets.CIFAR10("../data", train=False, transform=torchvision.transforms.ToTensor(),
                                       download=True)

# 创建数据加载器,以便从数据集中按批次加载数据
dataloader = DataLoader(dataset, batch_size=64)

# 定义一个简单的卷积神经网络类
class Tudui(nn.Module):
    def __init__(self):
        # 初始化父类
        super(Tudui, self).__init__()
        # 定义一个卷积层:输入通道为3(RGB),输出通道为6,卷积核大小为3,步幅为1,填充为0
        self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)

    def forward(self, x):
        # 定义前向传播过程
        x = self.conv1(x)  # 输入数据通过卷积层
        return x

# 实例化网络模型
tudui = Tudui()

# 创建 TensorBoard 的 SummaryWriter,用于记录训练过程中的数据
#不知道为什么无法生成文件只能改成绝对路径
#writer = SummaryWriter("../logs")
writer = SummaryWriter("g:/ML/logs")
# 初始化步骤计数器
step = 0

# 遍历数据加载器,获取数据批次
for data in dataloader:
    imgs, targets = data  # imgs 是输入图像,targets 是对应的标签
    output = tudui(imgs)  # 将输入图像传递给模型,获取输出
    # 打印输入和输出的张量形状
    #print(imgs.shape)  # 输入图像的形状:torch.Size([64, 3, 32, 32])
    #print(output.shape)  # 输出形状:torch.Size([64, 6, 30, 30])
    # 将输入图像记录到 TensorBoard
    writer.add_images("input", imgs, step)  # 记录输入图像,标签为 'input'
    #output=torch.reshape(output,(-1,3,30,30))
    output = output[:, :3, :, :] 
    # 输出的形状是 torch.Size([64, 6, 30, 30]),应直接记录,而不是重塑
    # 在这里需要注意的是,输出形状是 [batch_size, out_channels, height, width]
    # 直接将其添加到 TensorBoard 中
    writer.add_images("output", output, step)  # 记录输出图像,标签为 'output'

    step += 1  # 步骤计数器加1
writer.close()

在这里插入图片描述
dilation 空洞卷积。池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。本质是 降采样,可以大幅减少网络的参数量。

import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

# 加载 CIFAR-10 数据集,使用 ToTensor 转换为张量格式
dataset = torchvision.datasets.CIFAR10("../data", train=False, download=True,
                                       transform=torchvision.transforms.ToTensor())

# 创建数据加载器,以便从数据集中按批次加载数据
dataloader = DataLoader(dataset, batch_size=64)

# 定义简单的卷积神经网络类
class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        # 定义最大池化层,池化核大小为 3,ceil_mode=False 表示使用 floor 整除
        self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)

    def forward(self, input):
        # 定义前向传播过程
        output = self.maxpool1(input)
        return output

# 实例化模型
tudui = Tudui()

# 创建 TensorBoard 的 SummaryWriter
writer = SummaryWriter("G:/ML/logs_maxpool")

# 初始化步骤计数器
step = 0

# 遍历数据加载器,获取数据批次
for data in dataloader:
    imgs, targets = data  # imgs 是输入图像,targets 是对应的标签

    # 将原始输入图像写入 TensorBoard
    writer.add_images("input", imgs, step)

    # 将图像传入模型,获取池化后的输出
    output = tudui(imgs)

    # 将池化后的单通道图像扩展为 3 通道以便写入 TensorBoard
    output = output.repeat(1, 3 // output.shape[1], 1, 1)

    # 将池化后的输出图像写入 TensorBoard
    writer.add_images("output", output, step)

    # 步骤计数器加 1
    step += 1

# 关闭 TensorBoard 的 SummaryWriter
writer.close()

非线性激活

import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

# 定义一个输入张量,包含一些示例数据
input_tensor = torch.tensor([[1, -0.5],  # 第一个样本的两个特征
                             [-1, 3]])   # 第二个样本的两个特征

# 将输入张量重塑为四维张量,形状为 (batch_size, channels, height, width)
# 这里使用 -1 来自动推断 batch_size,因此最终形状为 (2, 1, 2, 2)
input_tensor = torch.reshape(input_tensor, (-1, 1, 2, 2))
print(input_tensor.shape)  # 打印重塑后的形状,应该是 torch.Size([2, 1, 2, 2])

# 加载 CIFAR-10 数据集,使用 ToTensor 转换为张量格式
# 这里的 train=False 表示加载测试集,download=True 表示如果数据集不存在则下载
dataset = torchvision.datasets.CIFAR10("../data", train=False, download=True,
                                       transform=torchvision.transforms.ToTensor())

# 创建数据加载器,以便从数据集中按批次加载数据
# batch_size=64 表示每次加载64张图像
dataloader = DataLoader(dataset, batch_size=64)

# 定义一个简单的卷积神经网络类
class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()  # 调用父类构造函数
        self.relu1 = ReLU()  # 定义 ReLU 激活函数
        self.sigmoid1 = Sigmoid()  # 定义 Sigmoid 激活函数

    def forward(self, input):
        # 定义前向传播过程
        output = self.relu1(input)  # 将输入数据通过 ReLU 激活
        output = self.sigmoid1(output)  # 然后通过 Sigmoid 激活
        return output  # 返回处理后的输出

# 实例化网络模型
tudui = Tudui()

# 创建 TensorBoard 的 SummaryWriter,用于记录训练过程中的数据
# 指定日志保存路径
writer = SummaryWriter("G:/ML/logs_relu")
step = 0  # 初始化步骤计数器

# 遍历数据加载器,获取数据批次
for data in dataloader:
    imgs, targets = data  # imgs 是输入图像,targets 是对应的标签
    writer.add_images("input", imgs, global_step=step)  # 记录输入图像到 TensorBoard,标签为 'input'
    
    output = tudui(imgs)  # 将输入图像传递给模型,获取输出
    writer.add_images("output", output, step)  # 记录输出图像到 TensorBoard,标签为 'output'
    
    step += 1  # 步骤计数器加1,表示记录了一个新的批次

# 关闭 SummaryWriter,保存所有记录的数据
writer.close()

模型选择

训练误差

在训练的数据集中的误差,类似于模考

泛化误差

在测试的结果数据集中的误差,需要重点关注,类似于高考

正则化

权重衰退(Weight Decay) 是机器学习和深度学习中常用的一种正则化技术,主要用于防止模型过拟合。

权重衰退的基本概念

在训练神经网络时,模型通过最小化损失函数来更新其权重(参数)。如果模型的参数(权重)过大,模型可能会在训练数据上表现得非常好,但在测试数据上表现不佳,导致过拟合。权重衰退正是通过对权重施加一个约束,来防止模型在训练过程中产生过大的权重。

权重衰退的核心思想是将损失函数加入权重的惩罚项,约束模型的权重大小,使得权重值不会变得过大,以提高模型的泛化能力。

数学表示

设模型的原始损失函数为 L ( θ ) L(\theta) L(θ),其中 θ \theta θ 是模型的参数向量。为了加入权重衰退,通常会引入一个惩罚项。常见的权重衰退方式有两种:L2正则化L1正则化

  1. L2正则化(最常用):

    • 在损失函数中加入权重的 L 2 L2 L2 范数惩罚项:

    L n e w ( θ ) = L ( θ ) + λ ∑ i θ i 2 L_{new}(\theta) = L(\theta) + \lambda \sum_{i} \theta_i^2 Lnew(θ)=L(θ)+λiθi2

    其中, λ \lambda λ 是正则化系数,用来控制惩罚项的大小。 ∑ i θ i 2 \sum_{i} \theta_i^2 iθi2 是权重的平方和,即 L 2 L2 L2 范数。

    含义 L 2 L2 L2 正则化通过将较大的权重拉向接近于零的值,从而限制模型复杂度,使得模型对输入数据更平滑。

  2. L1正则化

    • 在损失函数中加入权重的 L 1 L1 L1 范数惩罚项:

    L n e w ( θ ) = L ( θ ) + λ ∑ i ∣ θ i ∣ L_{new}(\theta) = L(\theta) + \lambda \sum_{i} |\theta_i| Lnew(θ)=L(θ)+λiθi

    含义 L 1 L1 L1 正则化鼓励权重变为零,这意味着它更倾向于产生稀疏权重向量,在某些情况下可以用于特征选择。

权重衰退的效果

权重衰退通过限制权重的大小,减小模型的复杂度,进而避免模型过度拟合训练数据,提高模型的泛化能力。具体效果有:

  • 防止过拟合:通过对权重值的惩罚,使得模型不会依赖于训练数据的噪声,从而提升在测试集上的表现。
  • 增加泛化能力:权重衰退可以使模型对未见数据的表现更为鲁棒,减小模型对小的扰动或噪声的敏感度。

物理解释

权重衰退的物理意义可以理解为在优化过程中引入了“摩擦力”。就像物理系统中摩擦力会阻止物体无限制加速,权重衰退通过施加“阻力”来防止模型参数在训练中变得过大,以保证模型的稳定性和鲁棒性。

梯度爆炸(Gradient Explosion)和梯度消失(Gradient Vanishing)是深度学习中常见的问题,尤其在训练深层神经网络时。以下是对这两个现象的详细解释:

在这里插入代码片

数值稳定性(Gradient Vanishing)

核心解决问题:

  • 梯度设置在合理的范围内
  • 乘法变加法:残差连接,LSTM
  • 归一化:梯度归一化
  • 合理的权重初始和激活函数

梯度消失

梯度消失是指在反向传播过程中,随着层数的增加,梯度逐渐变得非常小,接近于零。这导致前面的层无法有效更新参数,从而影响模型的学习能力。

原因
  1. 激活函数的选择:使用 Sigmoid 或 Tanh 函数时,当输入值很大或很小的时候,梯度接近于零。这使得网络在训练时,前面的层几乎不更新。
  2. 网络结构:深层网络结构会导致梯度在反向传播时被逐层“压缩”,使得早期层的梯度非常小。
解决方法
  • 使用 ReLU 激活函数:ReLU(Rectified Linear Unit)在正区间有常数梯度,避免了梯度消失的问题。
  • Batch Normalization:标准化每一层的输入,使得梯度在训练过程中更稳定。
  • 残差网络(ResNet):通过跳跃连接(skip connections)直接将输入信息传递到较深的层,减少信息的损失。

梯度爆炸(Gradient Explosion)

定义

梯度爆炸是指在反向传播过程中,梯度迅速增大,导致模型权重更新过大,最终导致模型不收敛或训练不稳定。

原因
  1. 网络结构:过深的网络或不适当的初始化可以导致梯度爆炸。
  2. 激活函数的选择:使用某些激活函数(如 Sigmoid)可能会导致在特定条件下梯度快速增大。
  3. 学习率过高:如果学习率设置过高,可能会使得每次参数更新过大,导致梯度爆炸。
解决方法
  • 梯度裁剪(Gradient Clipping):在反向传播时,限制梯度的最大值,防止梯度过大。
  • 使用合适的学习率:使用自适应学习率优化算法(如 Adam)可以帮助防止梯度爆炸。
  • 权重初始化:采用合适的权重初始化方法,如 Xavier 初始化或 He 初始化,以防止初始阶段梯度过大。

总结

  • 梯度消失:随着层数增加,梯度逐渐减小,影响学习能力。
  • 梯度爆炸:梯度迅速增大,导致参数更新过大,训练不稳定。

了解这两种现象及其解决方法,有助于设计更有效的深度学习模型,提高训练的稳定性和效率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2217397.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

linux anconda下基础环境配置(torch、opencv等)

1、torch安装(GPU) 下载链接:https://pytorch.org/ 根据配置下载对应版本,CUDA11.4 可用11.3下的安装包 conda install pytorch1.12.0 torchvision0.13.0 torchaudio0.12.0 cudatoolkit11.3 -c pytorch错误解决: 安…

好用的python相关的AI工具Bito介绍

插件名称:Bito 好用的python相关的AI工具Bito介绍 step 1:点插件step 2:搜索bito并安装step3 :需要登录,要有真实邮箱,按步骤走就行,完后就可以使用 step 1:点插件 step 2:搜索bito并安装 step3…

基于PHP考研互助系统【附源码】

基于PHP考研互助系统 效果如下: 系统首页界面 用户注册界面 考研论坛页面 每日打卡页面 管理员登录主页面 管理员主界面 用户管理界面 备考经验界面 研究背景 近些年,随着中国经济发展,人民的生活质量逐渐提高,对网络的依赖性越…

Q2=10 and Q2=1--PLB(Fig.4)

(个人学习笔记,仅供参考) import numpy as np from scipy.special import kv, erfc from scipy.integrate import dblquad import matplotlib.pyplot as plt import scipy.integrate as spi# Constants w 0.6198 g0_sq 21.5989 rho 0.782…

【UML】一个UML学习的还不错的几个帖子

https://segmentfault.com/a/1190000042775634 寂然解读设计模式 - UML类图&类的六大关系-阿里云开发者社区

【工具变量】上市公司企业广告支出数据(2007-2023年)

一、测算方式:具体而言,参照 Lu 等(2022)的研究,本文通过上市公司财务报表附注获取每家上市公司每年销售费用明细项目,筛选出广告费、广告宣传费、广告推广费、广告策划费、广告展览费等与广告支出相关的项…

CodeActAgent :Executable Code Actions Elicit Better LLM Agents解读

论文地址 https://arxiv.org/pdf/2402.01030.pdf 项目地址 https://github.com/svjack/CodeActAgent-Gradio/blob/main/README.md 代码智能体的优势 选择代码智能体有以下几个关键原因,它们相较于使用类似JSON的字典输出具有显著优势: 1. 代码的高…

软件分享|Microsoft To Do 任务管理

Microsoft To Do 是一款流行的待办事项和任务管理应用,它帮助用户通过创建任务、清单和安排日程来提高生产力。以下是 Microsoft To Do 的一些关键特性: 🔑 核心特性 任务和清单:创建任务并将其组织到不同的清单中,…

【Python数据结构】深入理解Python中的列表、字典和集合!

【Python数据结构】深入理解Python中的列表、字典和集合! 在Python编程中,数据结构是处理和组织数据的核心部分。Python提供了许多内置的数据结构,如列表、字典和集合,它们为程序员提供了灵活、高效的数据管理方式。本篇博客将深…

主键 外键

主键 外键 在关系型数据库中,主键(Primary Key)和外键(Foreign Key)是用于维护数据完整性和建立表之间关系的重要概念。 主键(Primary Key) 定义: 主键是一个或多个列的组合,其值能…

【从零开发Mybatis】引入MapperConfig.xml和Mapper映射配置

引言 学习MyBatis源码之前,了解它是如何通过JDBC查询数据库数据的基础知识是非常有用的。 上一篇我们编写了一个最简单的示例,通过JDBC查询数据库数据,从本文开始,我们将正式开始Mybatis框架的开发。 通过JDBC查询数据库数据存…

计算机网络:数据链路层 —— 共享式以太网

文章目录 共享式以太网CSMA/CD 协议CSMA/CD 协议 的基本原理 共享式以太网的争用期共享式以太网的最小帧长共享式以太网的最大帧长共享式以太网的退避算法截断二进制指数退避算法 共享二进制以太网的信道利用率使用集线器的共享式以太网10BASE-T 共享式以太网 共享式以太网是当…

微分几何-曲线论(曲线)

文章目录 曲线定义常见曲线直线圆圆柱螺线维维安尼曲线 连续曲线/光滑曲线正则曲线切向量切线方程法平面(法面) 弧长定理1:弧长公式弧长参数化定理2:任何一条正则曲线都可以使用弧长作参数.(也称弧长参数为**自然参数*…

[Linux] 逐层深入理解文件系统 (1)—— 进程操作文件

标题:[Linux] 文件系统 (1)—— 进程操作文件 个人主页水墨不写bug (图片来源于网络) 目录 一、进程与打开的文件 二、文件的系统调用与库函数的关系 1.系统调用open() 三、内存中的文件描述符表 四、缓冲区…

【Java SE 】类和对象详解

🔥博客主页🔥:【 坊钰_CSDN博客 】 欢迎各位点赞👍评论✍收藏⭐ 目录 1, 面向对象认识 1.1 什么时面向对象 1.2 面向对象和面向过程 1.2.1 一个例子理解对象和过程 1. 对于电脑来说 2. 对于我们人来说 2. 类的定…

还在为调用大模型API接口返回数据的处理问题烦恼???来看看这篇文章,解决你的烦恼!!!

大家好!我是学徒小z,今天给大家分享一下我做项目过程中遇到的一个问题。 文章目录 问题大模型接口解决方案流式返回和回调函数另一个问题1. 使用web组件2. 使用第三方库 问题 不知道大家有没有遇到这样一个问题。在调用大模型接口的时,返回…

Lnmp(mysql分离)(nginx 1.13.6+mysql5.5+php5.3)环境一键搭建

Lnmp(mysql分离)(nginx 1.13.6mysql5.5php5.3)环境一键搭建 如果对运维课程感兴趣,可以在b站上、csdn或微信视频号 上搜索我的账号: 运维实战课程,可以关注我,学习更多免费的运维实…

深度学习之残差网络ResNet

文章目录 1. 残差网络定义2. 数学基础函数类3. 残差块4.ResNet模型5.训练模型6.小结 1. 残差网络定义 随着我们设计的网络越来越深,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力。在这种网络中,添加层会使得网…

单例模式:为何继承无法保证子类的单例特性

这里写目录标题 一、引言二、背景描述三、单例模式的规范边界全局访问点与静态工厂方法代码示例与注意事项 四、单例实现继承遇到的问题五、结论与替代方案结论替代方案特殊的想法🌸🌸源码阶段验证编译阶段验证运行阶段验证总结 一、引言 在软件设计中&a…

实时语音转文字(基于NAudio+Whisper+VOSP+Websocket)

今天花了大半天时间研究一个实时语音转文字的程序,目的还包括能够唤醒服务,并把命令提供给第三方。 由于这方面的材料已经很多,我就只把过程中遇到的和解决方案简单说下。源代码开源在AudioWhisper: 实时语音转文字(基于NAudioWhisperVOSPWe…