二、神经网络基础与搭建

news2024/11/18 3:01:51

神经网络基础

  • 前言
  • 一、神经网络
    • 1.1 基本概念
    • 1.2 工作原理
  • 二、激活函数
    • 2.1 sigmoid激活函数
      • 2.1.1 公式
      • 2.1.2 注意事项
    • 2.2 tanh激活函数
      • 2.2.1 公式
      • 2.2.2 注意事项
    • 2.3 ReLU激活函数
      • 2.3.1 公式
      • 2.3.2 注意事项
    • 2.4 SoftMax激活函数
      • 2.4.1 公式
      • 2.4.2 Softmax的性质
      • 2.4.3 Softmax的应用
      • 2.4.4 代码演示
      • 2.4.5 数学计算举例
      • 2.4.6 Softmax的注意事项
  • 三、参数初始化
    • 3.1 均匀分布初始化
    • 3.2 正态分布初始化
    • 3.3 全0初始化
    • 3.4 全1初始化
    • 3.5 固定值初始化
    • 3.6 Kaiming 初始化,也叫做 HE 初始化
      • 3.6.1 正态化的Kaiming 初始化
      • 3.6.2 均匀分布的Kaiming 初始化
    • 3.7 Xavier 初始化,也叫做 Glorot初始化
      • 3.7.1 正态化的Xavier初始化
      • 3.7.2 均匀分布的Xavier初始化
  • 四、构建简单的神经网络
  • 总结


前言

  • 前面我们学习了深度学习当中的基础——张量,接下来我们了解神经网络中的知识。

一、神经网络

  • 神经网络是一种模拟人脑神经元结构和功能的计算模型,旨在解决复杂的模式识别和预测问题

1.1 基本概念

  • 神经元:神经元是神经网络的基本组成单元,它接收输入信号,通过对输入信号的处理产生输出信号。每个神经元都有多个输入和一个输出,输入可以是其他神经元的输出,也可以是外部输入信号。

  • 层级结构:神经网络由多个层级结构组成,包括输入层、隐藏层和输出层。输入层接收来自外部环境的数据,每个神经元代表一个输入特征;隐藏层负责对输入数据进行非线性变换,提取特征;输出层输出预测结果,每个神经元代表一个输出值。

  • 在这里插入图片描述

  • 连接权重:连接不同神经元之间的权重,决定信号的传递强度。这些权重在神经网络的训练过程中不断调整,以实现更好的预测性能。

  • 在这里插入图片描述

  • 激活函数:激活函数用于对神经元输出进行非线性变换,引入非线性特性。常见的激活函数包括sigmoid函数、ReLU函数、tanh函数等。不同的激活函数有不同的性质,可以根据具体的任务需求选择不同的激活函数。

1.2 工作原理

  • 层级传播:信号通过逐层传递,最终到达输出层。
  • 输出预测:输出层的神经元输出预测结果。
  • 误差反向传播:根据预测结果与真实值的误差,通过反向传播算法更新连接权重。反向传播算法通过从输出层向输入层反向传播误差,依次更新权重和偏置,使得网络的预测能力逐渐提高。

二、激活函数

  • 用于对每层的输出数据进行变换,从而为整个网络注入了非线性因素,此时的神经网络就可以拟合各种曲线,提高应对复杂问题的拟合能力。

2.1 sigmoid激活函数

2.1.1 公式

f ( x ) = 1 1 + e − x f(x)=\frac{1}{1+e^{-x}} f(x)=1+ex1

  • 求导后的公式:
    • f ′ ( x ) = ( 1 1 + e − x ) ′ = 1 1 + e − x ( 1 − 1 1 + e − x ) = f ( x ) ( 1 − f ( x ) ) f'(x)=(\frac{1}{1+e^{-x}})'=\frac{1}{1+e^{-x}}(1-\frac{1}{1+e^{-x}})=f(x)(1-f(x)) f(x)=(1+ex1)=1+ex1(11+ex1)=f(x)(1f(x))

代码演示:

import torch
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号

# 创建画布和坐标轴
_, axes = plt.subplots(1, 2)
# sigmoid函数图像
x = torch.linspace(-20, 20, 1000)
# 输入值x通过sigmoid函数转换成激活值y
y = torch.sigmoid(x)
axes[0].plot(x, y)
axes[0].grid()
axes[0].set_title('Sigmoid 函数图像')

# sigmoid导数图像
x = torch.linspace(-20, 20, 1000, requires_grad=True)
torch.sigmoid(x).sum().backward()

# y = 2 * torch.dot(x, x)
# y.backward()
# x.detach():输入值x的数值
# x.grad:计算梯度,求导
axes[1].plot(x.detach(), x.grad)
axes[1].grid()
axes[1].set_title('Sigmoid 导数图像')
plt.show()
  • 函数图像如下
    在这里插入图片描述

2.1.2 注意事项

  • sigmoid函数可以将任意值的输入映射到(0,1)之间,从图中我们可以看出,当输入的值大致在 < -6 或者 >6 的时候,此时输入任何值得到的激活值都差不多,这样就会导致丢失部分信息。
  • 对于sigmoid函数而言,输入值在[-6,6]之间才会有明显差异,输入值在[-3,3]之间才会有比较好的结果
  • 由导函数的图像,导数的数值范围是(0,025),当输入*< -6 或者 >6 的时候,sigmoid激活函数图像的导数接近于0,此时网络参数将更新缓慢或者无法更新
  • 一般来说,sigmoid的网络在五层之内就会产生梯度消失的现象,而且该激活函数不以0为中心,所以在实践中,使用很少。一般只用于二分类的输出层。

2.2 tanh激活函数

2.2.1 公式

f ( x ) = 1 − e − 2 x 1 + e − 2 x f(x)=\frac{1-e^{-2x}}{1+e^{-2x}} f(x)=1+e2x1e2x

  • 求导后的公式:
    f ′ ( x ) = ( 1 − e − 2 x 1 + e − 2 x ) ′ = 1 − f 2 ( x ) f'(x)=(\frac{1-e^{-2x}}{1+e^{-2x}})'=1-f^2(x) f(x)=(1+e2x1e2x)=1f2(x)

代码演示:

import torch
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号

# 创建画布和坐标轴
_, axes = plt.subplots(1, 2)
# 函数图像
x = torch.linspace(-20, 20, 1000)
y = torch.tanh(x)
axes[0].plot(x, y)
axes[0].grid()
axes[0].set_title('Tanh 函数图像')

# 导数图像
x = torch.linspace(-20, 20, 1000, requires_grad=True)
torch.tanh(x).sum().backward()
axes[1].plot(x.detach(), x.grad)
axes[1].grid()
axes[1].set_title('Tanh 导数图像')
plt.show()
  • 在这里插入图片描述

2.2.2 注意事项

  • Tanh函数将输入映射在(-1,1)之间,图像以0为中心,在0点对称,当输入 < -3 或者 >3 的时会被映射成 -1 或者 1 。导函数的取值范围(0,1),当输入的值 < -3 或者 >3 的时,其导函数近似0。
  • 与sigmoid相比,它是以0为中心,并且梯度相对于sigmoid大,使得其收敛速度要比sigmoid快,减少迭代刺水。然而,从图中可以看出,Tanh两侧的导数也为0,同样会出现梯度消失的情况。
  • 若使用的时候,可以再隐藏层使用Tanh函数,在输出层使用sigmoid函数

2.3 ReLU激活函数

2.3.1 公式

f ( x ) = m a x ( 0 , x ) f(x)=max(0, x) f(x)=max(0,x)

  • 求导后的公式:
    f ′ ( x ) = 0 或者 1 f'(x)=0或者1 f(x)=0或者1

代码演示:

# 创建画布和坐标轴
import torch
from matplotlib import pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号

_, axes = plt.subplots(1, 2)
# 函数图像
x = torch.linspace(-20, 20, 1000)
y = torch.relu(x)
axes[0].plot(x, y)
axes[0].grid()
axes[0].set_title('ReLU 函数图像')
# 导数图像
x = torch.linspace(-20, 20, 1000, requires_grad=True)
torch.relu(x).sum().backward()
axes[1].plot(x.detach(), x.grad)
axes[1].grid()
axes[1].set_title('ReLU 导数图像')
plt.show()
  • 在这里插入图片描述

2.3.2 注意事项

  • ReLU 激活函数将小于0的值映射为 0,而大于 0 的值则保持不变,它更加重视正信号,而忽略负信号,这种激活函数运算更为简单,能够提高模型的训练效率。
  • 当x<0时,ReLU导数为0,而当x>0时,则不存在饱和问题。所以,ReLU能够在x>0时保持梯度不衰减,从而缓解梯度消失问题。然而,随着训练的推进,部分输入会落入小于0区域,导致对应权重无法更新。这种现象被称为“神经元死亡”
  • ReLU是目前最常用的激活函数。
    • 与sigmoid相比,RELU的优势是:采用sigmoid函数,计算量大(指数运算),反向传播求误差梯度时,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。
    • siqmoid函数反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。
    • Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。

2.4 SoftMax激活函数

2.4.1 公式

  • Softmax函数的本质是一种归一化函数,它将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。对于一个给定的实数向量z,Softmax函数首先计算每一个元素的指数(e的幂),然后每个元素的指数与所有元素指数总和的比值,就形成了Softmax函数的输出。
    Softmax ( z i ) = e z i ∑ j = 1 K e z j \text{Softmax}(z_i) = \frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}} Softmax(zi)=j=1Kezjezi

  • 其中, z i z_i zi 表示输入向量 z z z 的第 i i i 个分量, K K K 是类别总数,即向量 z z z 的维度, e e e 是自然对数的底数。

  • 实际计算的时候需要输入向量减去向量中的最大值

    • 在实际应用中,直接计算 e z i e^{z_i} ezi 可能会导致数值溢出,特别是当输入值很大时。为了防止这种情况,可以在计算前减去向量中的最大值。

2.4.2 Softmax的性质

  • 归一化:Softmax保证所有输出值的和为1,使其可以被解释为概率。
  • 可微性:Softmax函数在整个定义域内可微,这使得它可以在基于梯度的优化算法中使用,例如反向传播。
  • 敏感性:Softmax对输入值非常敏感,尤其是当有一个输入远大于其他输入时。

2.4.3 Softmax的应用

  • 多类别分类问题:Softmax函数常用于多类别分类问题中,将输入向量映射为各个类别的概率。在神经网络中,Softmax通常作为输出层的激活函数,将网络的输出转换为类别概率。
  • 交叉熵损失函数:在训练神经网络时,Softmax函数通常与交叉熵损失函数结合使用。交叉熵损失函数用于衡量预测概率分布与真实标签之间的差异,从而进行模型的训练和优化。

2.4.4 代码演示

代码演示:

import torch

scores = torch.tensor([0.2, 0.02, 0.15, 0.15, 1.3, 0.5, 0.06, 1.1, 0.05, 3.75])
# dim = 0,按行计算
probabilities = torch.softmax(scores, dim=0)
print(probabilities)

2.4.5 数学计算举例

  • 0、背景:
    • 假设我们有一个神经网络,用于识别手写数字(0 到 9)。神经网络的输出层有 10 个神经元,每个神经元对应一个数字类别。在训练完成后,对于一个新的输入图像,神经网络的输出层会产生一个 10 维的实数向量。我们需要将这个向量转换为一个概率分布,以便确定哪个数字最有可能是正确的。
  • 1、输入向量
    • z = [ 1.0 , 2.0 , 3.0 , 4.0 , 1.0 , 0.5 , 0.0 , − 1.0 , − 2.0 , − 3.0 ] z = [1.0,2.0,3.0,4.0,1.0,0.5,0.0,−1.0,−2.0,−3.0] z=[1.0,2.0,3.0,4.0,1.0,0.5,0.0,1.0,2.0,3.0]
  • 2、减去最大值
    • 为了防止数值溢出,我们先减去向量中的最大值(4.0)
    • z ′ = [ 1.0 − 4.0 , 2.0 − 4.0 , 3.0 − 4.0 , 4.0 − 4.0 , 1.0 − 4.0 , 0.5 − 4.0 , 0.0 − 4.0 , − 1.0 − 4.0 , − 2.0 − 4.0 , − 3.0 − 4.0 ] z'=[1.0−4.0,2.0−4.0,3.0−4.0,4.0−4.0,1.0−4.0,0.5−4.0,0.0−4.0,−1.0−4.0,−2.0−4.0,−3.0−4.0] z=[1.04.0,2.04.0,3.04.0,4.04.0,1.04.0,0.54.0,0.04.0,1.04.0,2.04.0,3.04.0]
    • z ′ = [ − 3.0 , − 2.0 , − 1.0 , 0.0 , − 3.0 , − 3.5 , − 4.0 , − 5.0 , − 6.0 , − 7.0 ] z' = [−3.0,−2.0,−1.0,0.0,−3.0,−3.5,−4.0,−5.0,−6.0,−7.0] z=[3.0,2.0,1.0,0.0,3.0,3.5,4.0,5.0,6.0,7.0]
  • 3、计算指数
    • e z ′ = [ e − 3.0 , e − 2.0 , e − 1.0 , e 0.0 , e − 3.0 , e − 3.5 , e − 4.0 , e − 5.0 , e − 6.0 , e − 7.0 ] e^{z'} = [e^{-3.0},e^{-2.0},e^{-1.0},e^{0.0},e^{-3.0},e^{-3.5},e^{-4.0},e^{-5.0},e^{-6.0},e^{-7.0}] ez=[e3.0,e2.0,e1.0,e0.0,e3.0,e3.5,e4.0,e5.0,e6.0,e7.0]
    import numpy as np
    
    z_prime = np.array([-3.0, -2.0, -1.0, 0.0, -3.0, -3.5, -4.0, -5.0, -6.0, -7.0])
    exp_z_prime = np.exp(z_prime)	
    print(exp_z_prime)
    
    • [‘0.0497870684’, ‘0.1353352832’, ‘0.3678794412’, ‘1.0000000000’, ‘0.0497870684’, ‘0.0301973834’, ‘0.0183156389’, ‘0.0067379470’, ‘0.0024787522’, ‘0.0009118820’]
  • 4、计算分母
    • ∑ i = 1 10 e z ′ = 0.0497870684 + 0.1353352832 + 0.3678794412 + 1.0000000000 + 0.0497870684 + 0.0301973834 + 0.0183156389 + 0.0067379470 + 0.0024787522 + 0.0009118820 \sum_{i=1}^{10}e^{z'}= 0.0497870684+0.1353352832+0.3678794412+1.0000000000+0.0497870684+0.0301973834+0.0183156389+0.0067379470+0.0024787522+0.0009118820 i=110ez=0.0497870684+0.1353352832+0.3678794412+1.0000000000+0.0497870684+0.0301973834+0.0183156389+0.0067379470+0.0024787522+0.0009118820
    • ∑ i = 1 10 e z ′ = 1.6614304647 \sum_{i=1}^{10}e^{z'}= 1.6614304647 i=110ez=1.6614304647
  • 5、计算Softmax
    • 将每个指数除以总和,得到概率分布
    • s o f t m a x ( z i ) = e z ′ ∑ i = 1 10 e z ′ softmax(z_i) = \frac{e^{z'}}{\sum_{i=1}^{10}e^{z'}} softmax(zi)=i=110ezez
sum_exp_z_prime = np.sum(exp_z_prime)
softmax_output = exp_z_prime / sum_exp_z_prime
print(softmax_output)
- 输出结果为:[0.0299663871,0.0814570854,0.2214233150,0.6018909737,0.0299663871,
			  0.0181755325,0.0110240177,0.0040555095,0.0014919386,0.0005488535]
  • 6、结果解释
    • 第四个元素的概率最高为0.6018909737,所以预测为 数字 3
    • 其他数字概率较小,所以表示其他数字的可能性较小

2.4.6 Softmax的注意事项

  • 输入值范围:Softmax函数的输入值可以是任意实数,但通常在实际应用中,输入值是经过神经网络计算得到的logits(即未归一化的得分或置信度)。
  • 数值稳定性:在计算Softmax函数时,由于涉及到指数运算,可能会出现数值溢出或下溢的问题。为了解决这个问题,通常会对输入值进行适当的缩放或平移处理。
  • 互斥类别:Softmax函数适用于类别互斥的情况,即每个样本只能属于一个类别。如果问题是多标签分类(即一个样本可能属于多个类别),则需要使用其他方法,如sigmoid函数或其他多标签分类算法。

三、参数初始化

导包:

import torch
import torch.nn.functional as F
import torch.nn as nn

3.1 均匀分布初始化

  • 权重参数初始化从区间均匀随机取值。即在( − 1 d , 1 d \frac{-1}{\sqrt{d}},\frac{1}{\sqrt{d}} d 1,d 1 )均匀分布中生成当前神经元的权重,其中 d d d 为每个神经元的输入数量

代码演示:

linear = nn.Linear(5, 3)
# 从0-1均匀分布产生参数
nn.init.uniform_(linear.weight)
print(linear.weight.data)

3.2 正态分布初始化

  • 随机初始化从均值为0,标准差是1的高斯分布中取样,使用一些很小的值对参数 W W W 进行初始化

代码演示:

linear = nn.Linear(5, 3)
nn.init.normal_(linear.weight, mean=0, std=1)
print(linear.weight.data)

3.3 全0初始化

  • ​ 将神经网络中的所有权重参数初始化为 0

代码演示:

linear = nn.Linear(5, 3)
nn.init.zeros_(linear.weight)
print(linear.weight.data)

3.4 全1初始化

  • ​ 将神经网络中的所有权重参数初始化为 1

代码演示:

linear = nn.Linear(5, 3)
nn.init.ones_(linear.weight)
print(linear.weight.data)

3.5 固定值初始化

  • 将神经网络中的所有权重参数初始化为某个固定值

代码演示:

linear = nn.Linear(5, 3)
nn.init.constant_(linear.weight, 5)  # 里边写 几 就是 用哪个值初始化
print(linear.weight.data)

3.6 Kaiming 初始化,也叫做 HE 初始化

3.6.1 正态化的Kaiming 初始化

  • s t d d e v = 2 f a n i n stddev = \sqrt{\frac{2}{fan_{in}}} stddev=fanin2
  • f a n i n fan_{in} fanin 输入神经元的个数

代码演示:

# kaiming 正态分布初始化
linear = nn.Linear(5, 3)
nn.init.kaiming_normal_(linear.weight)
print(linear.weight.data)

3.6.2 均匀分布的Kaiming 初始化

  • f a n i n fan_{in} fanin 输入神经元的个数
  • 它从 [ − l i m i t , l i m i t ] [-limit,limit] [limitlimit] 中的均匀分布中抽取样本, l i m i t limit limit 6 f a n i n \sqrt{\frac{6}{fan_{in}}} fanin6

代码演示:

# kaiming 均匀分布初始化
linear = nn.Linear(5, 3)
nn.init.kaiming_uniform_(linear.weight)
print(linear.weight.data)

3.7 Xavier 初始化,也叫做 Glorot初始化

3.7.1 正态化的Xavier初始化

  • s t d d e v = 2 f a n i n + f a n o u t stddev = \sqrt{\frac{2}{fan_{in}+fan_{out}}} stddev=fanin+fanout2
  • f a n i n fan_{in} fanin 输入神经元的个数
  • f a n o u t fan_{out} fanout 输出的神经元个数

代码演示:

# xavier 正态分布初始化
linear = nn.Linear(5, 3)
nn.init.xavier_normal_(linear.weight)
print(linear.weight.data)

3.7.2 均匀分布的Xavier初始化

  • 它从 [ − l i m i t , l i m i t ] [-limit,limit] [limitlimit] 中的均匀分布中抽取样本, l i m i t limit limit 6 f a n i n + f a n o u t \sqrt{\frac{6}{fan_{in}+fan_{out}}} fanin+fanout6

代码演示:

# xavier 均匀分布初始化
linear = nn.Linear(5, 3)
nn.init.xavier_uniform_(linear.weight)
print(linear.weight.data)

四、构建简单的神经网络

  • 案例:我们构建如下网络
    - 定义网络中的层结构,主要是全连接层,并进行初始化
  • 要求如下:
    • 第1个隐藏层:权重初始化采用标准化的xavier初始化 激活函数使用sigmoid
    • 第2个隐藏层:权重初始化采用标准化的He初始化 激活函数采用relu
    • out输出层线性层,采用 softmax 做数据分类输出

代码演示:

"""
在pytorch中定义深度神经网络其实就是层堆叠的过程,继承自nn.Module,实现两个方法:
	1、__init__方法中定义网络中的层结构,主要是全连接层,并进行初始化
	2、forward方法,在实例化模型的时候,底层会自动调用该函数。该函数中可以定义学习率,为初始化定义的layer传入数据等。
"""
import torch
import torch.nn as nn
from torchsummary import summary  # 计算模型参数,查看模型结构, pip install torchsummary

# 创建神经网络模型类
class Model(nn.Module):
    # 初始化属性值
    def __init__(self):
        super(Model, self).__init__() # 调用父类的初始化属性值
        self.linear1 = nn.Linear(3, 3) # 创建第一个隐藏层模型, 3个输入特征,3个输出特征
        nn.init.xavier_normal_(self.linear1.weight) # 初始化权
        # 创建第二个隐藏层模型, 3个输入特征(上一层的输出特征),2个输出特征
        self.linear2 = nn.Linear(3, 2)
        # 初始化权重
        nn.init.kaiming_normal_(self.linear2.weight)
        # 创建输出层模型
        self.out = nn.Linear(2, 2)

    # 创建前向传播方法,自动执行forward()方法
    def forward(self, x):
        # 数据经过第一个线性层
        x = self.linear1(x)
        # 使用sigmoid激活函数
        x = torch.sigmoid(x)
        # 数据经过第二个线性层
        x = self.linear2(x)
        # 使用relu激活函数
        x = torch.relu(x)
        # 数据经过输出层
        x = self.out(x)
        # 使用softmax激活函数
        # dim=-1:每一维度行数据相加为1
        x = torch.softmax(x, dim=-1)
        return x

if __name__ == "__main__":
    # 实例化model对象
    my_model = Model()
    # 随机产生数据
    my_data = torch.randn(5, 3)
    print("mydata shape", my_data.shape)
    # 数据经过神经网络模型训练
    output = my_model(my_data)
    print("output shape-->", output.shape)
    # 计算模型参数
    # 计算每层每个神经元的w和b个数总和
    summary(my_model, input_size=(3,), batch_size=5) 
    # 查看模型参数
    print("======查看模型参数w和b======")
    for name, parameter in my_model.named_parameters():
        print(name, parameter)

总结

  • 我们通过学习了激活函数和参数初始化后,我们能实现搭建一个简单的神经网络。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2242543.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Unreal engine5实现类似鬼泣5维吉尔二段跳

系列文章目录 文章目录 系列文章目录前言一、实现思路二、具体使用蓝图状态机蓝图接口三、中间遇到的问题 前言 先看下使用Unreal engine5实现二段跳的效果 一、实现思路 在Unreal Engine 5 (UE5) 中使用蓝图系统实现类似于《鬼泣5》中维吉尔的二段跳效果&#xff0c;可以通…

RAG经验论文《FACTS About Building Retrieval Augmented Generation-based Chatbots》笔记

《FACTS About Building Retrieval Augmented Generation-based Chatbots》是2024年7月英伟达的团队发表的基于RAG的聊天机器人构建的文章。 这篇论文在待读列表很长时间了&#xff0c;一直没有读&#xff0c;看题目以为FACTS是总结的一些事实经验&#xff0c;阅读过才发现FAC…

Java 简单家居开关系统

1.需求&#xff1a; 面向对象编程实现智能家居控制系统&#xff08;简单的开关&#xff09; 2.实现思路 1.定义设备类&#xff1a;创建设备对象代表家里的设备 JD类&#xff1a; import lombok.AllArgsConstructor; import lombok.Data; import lombok.NoArgsConstructor;D…

任务调度工具Spring Test

Spring Task 是Spring框架提供的任务调度工具&#xff0c;可以按照约定的时间自动执行某个代码逻辑。 作用&#xff1a;定时自动执行某段Java代码 应用场景&#xff1a; 信用卡每月还款提醒 银行贷款每月还款提醒 火车票售票系统处理未支付订单 入职纪念日为用户发送通知 一.…

SAFETY LAYERS IN ALIGNED LARGE LANGUAGEMODELS: THE KEY TO LLM SECURITY

目录 概要 背景 大语言模型对齐 对齐大语言模型中的过度拒绝 微调攻击 研究设置 问题定义 对齐的大语言模型 大语言模型的提示模板 安全层的存在和定位 安全层的存在性 1.从余弦相似度说明 2.从向量之间角度差异说明 3.与预训练LLM对比说明 安全层的定位 1.推理…

netcore Kafka

一、新建项目KafakDemo <ItemGroup><PackageReference Include"Confluent.Kafka" Version"2.6.0" /></ItemGroup> 二、Program.cs using Confluent.Kafka; using System; using System.Threading; using System.Threading.Tasks;names…

在k8s上部署Crunchy Postgres for Kubernetes

目录 一、前言二、安装Crunchy Postgres for Kubernetes三、部署一个简单的postgres集群四、增加pgbouncer五、数据备份六、备份恢复七、postgres配置参数八、数据导入九、权限管理 一、前言 Crunchy Postgres可以帮助我们在k8s上快速部署一个高可用、具有自动备份和恢复功能的…

函数指针示例

目录&#xff1a; 代码&#xff1a; main.c #include <stdio.h> #include <stdlib.h>int Max(int x, int y); int Min(int x, int y);int main(int argc, char**argv) {int x,y;scanf("%d",&x);scanf("%d",&y);int select;printf(&q…

计算机网络:运输层 —— 运输层端口号

文章目录 运输层端口号的分类端口号与应用程序的关联应用举例发送方的复用和接收方的分用 运输层端口号的分类 端口号只具有本地意义&#xff0c;即端口号只是为了标识本计算机网络协议栈应用层中的各应用进程。在因特网中不同计算机中的相同端口号是没有关系的&#xff0c;即…

牛客挑战赛77

#include <iostream>// 函数 kXOR&#xff1a;计算两个数在 k 进制下的异或和 // 参数&#xff1a; // a: 第一个正整数 // b: 第二个正整数 // k: 进制基数 // 返回值&#xff1a; // 两数在 k 进制下的异或和&#xff08;十进制表示&#xff09; long long kXO…

大数据-225 离线数仓 - 目前需求分析 指标口径 日志数据采集 taildir source HDFS Sink Agent Flume 优化配置

点一下关注吧&#xff01;&#xff01;&#xff01;非常感谢&#xff01;&#xff01;持续更新&#xff01;&#xff01;&#xff01; 目前已经更新到了&#xff1a; Hadoop&#xff08;已更完&#xff09;HDFS&#xff08;已更完&#xff09;MapReduce&#xff08;已更完&am…

【流量分析】常见webshell流量分析

免责声明&#xff1a;本文仅作分享&#xff01; 对于常见的webshell工具&#xff0c;就要知攻善防&#xff1b;后门脚本的执行导致webshell的连接&#xff0c;对于默认的脚本要了解&#xff0c;才能更清晰&#xff0c;更方便应对。 &#xff08;这里仅针对部分后门代码进行流量…

springboot基于Web足球青训俱乐部管理后台系统开发(代码+数据库+LW)

摘 要 随着社会经济的快速发展&#xff0c;人们对足球俱乐部的需求日益增加&#xff0c;加快了足球健身俱乐部的发展&#xff0c;足球俱乐部管理工作日益繁忙&#xff0c;传统的管理方式已经无法满足足球俱乐部管理需求&#xff0c;因此&#xff0c;为了提高足球俱乐部管理效率…

电子应用设计方案-12:智能窗帘系统方案设计

一、系统概述 本设计方案旨在打造便捷、高效的全自动智能窗帘系统。 二、硬件选择 1. 电机&#xff1a;选用低噪音、扭矩合适的智能电机&#xff0c;根据窗帘尺寸和重量确定电机功率&#xff0c;确保能平稳拉动窗帘。 2. 轨道&#xff1a;选择坚固、顺滑的铝合金轨道&…

使用Element UI实现前端分页,及el-table表格跨页选择数据,切换分页保留分页数据,限制多选数量

文章目录 一、前端分页1、模板部分 (\<template>)2、数据部分 (data)3、计算属性 (computed)4、方法 (methods) 二、跨页选择1、模板部分 (\<template>)2、数据部分 (data)3、方法 (methods) 三、限制数量1、模板部分 (\<template>)2、数据部分 (data)3、方法…

mysql时间时区修改、set global、配置文件-default-time-zone

通过查看mysql错误日志或二进制日志可以看到时间和时区并不与国内的东八区时间一致。 查询mysql系统时区时间 show variables where variable_name"system_time_zone"; CST指的是中国标准时间&#xff0c;也是中国的标准时区。 set命令修改时区时间 global&#xf…

零基础利用实战项目学会Pytorch

目录 pytorch简介 1.线性回归 2.数据类型 2.1数据类型检验 2.2Dimension0/Rank0 2.3 Dim1/Rank1 2.4 Dim2/Rank2 3.一些方法 4.Pytorch完成分类任务 4.1模型参数 4.2 前向传播 4.3训练以及验证 4.4 三行搞定&#xff01; 4.5 准确率 5、Pytorch完成回归任务 5.…

信捷PLC转以太网连接电脑方法

信捷XC/XD/XL等系列PLC如何上下载程序?可以选择用捷米特JM-ETH-XJ模块轻松搞定,并不需要编程&#xff0c;即插即用&#xff0c;具体看见以下介绍&#xff1a; 产品介绍 捷米特JM-ETH-XJ是专门为信捷PLC转以太网通讯面设计&#xff0c;可实现工厂设备信息化需求&#xff0c;对…

【Flink】-- flink新版本发布:v2.0-preview1

目录 1、简介 2、非兼容变更 2.1、API 2.2、连接器适配计划 2.3、配置 2.4、其它 3、重要新特性 3.1、存算分离状态管理 3.2、物化表 3.3、批作业的自适应执行 3.4、流式湖仓 4、附加 4.1、非兼容性的 api 程序变更 4.1.2、Removed Classes # 4.1.3、Modified Cl…

头歌-本关任务:使用GmSSL命令行,生成SM2私钥并对文件进行签名验证(第二关)。

第一关在网上找到了&#xff0c;但第二关没找到&#xff0c;在这里做一下补充:) 如果想认真学的话可以看看文档 国密SM2椭圆曲线密码标准http://gmssl.org/docs/sm2.html 内容为 GuetPython 的明文文件msg.txt 私钥sm2.pem 公钥sm2Pub.pem 使用sm2utl对msg.txt进行签名&…