pytorch【线性回归】【逻辑回归】【softmax回归】

news2024/11/15 23:43:23

文章目录

  • 零、前置函数
    • 线性相乘
    • 均方误差损失函数
    • 梯度下降函数
    • 数据的生成函数
  • 一、线性回归
    • 1.手动实现线性回归
    • 2.调库实现线性回归
      • 1.定义我们线性回归的模型
      • 2.定义我们的误差函数
      • 3.定义优化方法
      • 4.模型的训练
      • 5.开始训练
      • 6.查看模型的参数
      • 7.计算我们模型的当前的均方误差
  • 二、逻辑回归
    • 1.手动实现逻辑回归
      • 1.激活函数
      • 2.逻辑回归函数
      • 3.辅助函数设定阈值
      • 4.定义准确率函数
      • 5.定义损失函数
      • 6.定义优化方法
      • 7.训练模型
    • 2.调库实现逻辑回归
      • 1.定义核心参数
      • 2.创建数据集
      • 3.定义模型
      • 4.定义损失函数
      • 5.定义优化方法
      • 6.定义训练函数
      • 7.开始训练
      • 8.查看训练结果
      • 9.计算交叉熵损失函数
      • 10.计算准确率
  • 三、softmax回归
    • 1.手动实现softmax回归
      • 1.softmax函数的定义
      • 2.定义交叉熵损失函数
      • 3.定义准确率函数
      • 4.定义优化函数
      • 5.开始训练我们的模型
    • 2.调库实现softmax回归
      • 1.定义核心参数
      • 2.创建数据
      • 3.定义模型
      • 3.定义损失函数
      • 4.定义我们的优化方法
      • 5.定义我们模型的训练函数
      • 6.训练我们的模型
      • 7.查看模型的相关参数

零、前置函数

线性相乘

#线性相乘
def linreg(X, w):
    return torch.mm(X, w)

均方误差损失函数

#均方误差损失函数
#这里的y_hat是我们预测出来的结果,y是我们的正确的结果
def squared_loss(y_hat, y):
#使用y.numel获取到我们y中的元素个数
    num_ = y.numel()
    #reshape(-1,1)的作用就是将我们的函数变成一维的
    #然后我们就将这两个向量对应位置进行相减,然后对新生成的向量的每一个元素都进行求平方的操作
    #然后将这个向量的每一个元素都加起来,得到我们的平方误差和
    sse = torch.sum((y_hat.reshape(-1, 1) - y.reshape(-1, 1)) ** 2)
    #平方误差和除以我们的元素大的个数就是我们的均方误差和 
    return sse / num_

梯度下降函数

def sgd(params, lr):
	#将我们传入的当前位置的w,减去我们的学习率乘以我们梯度
	#我们就得到了我们的一次迭代后我们的新的位置
    params.data -= lr * params.grad 
    #将我们的当前点的梯度清零,节省我们的内存空间,便于我们下一次的计算
    params.grad.zero_()

数据的生成函数

数据的生成函数 小批量数据的随机生成函数

一、线性回归

1.手动实现线性回归

#创建我们的数据集
features, labels = tensorGenReg()
#这个函数在我们上面的数据生成函数的那一篇博文中有
#默认1生成1000行的数据,然后初始的权重是[2,-1,1],默认是有偏置的
#也就是默认返回一个1000行,2列的数据特征数据
#然后返回一个1000行的标签,也就是1000×2的特征矩阵再乘上一个2×1权重也就是我们上面[2,-1]
#然后再加上我们的偏置,我们就得到了我们的特征
#y=2(x1)-1(x2)+1
# 设置随机数种子
torch.manual_seed(420)    

# 初始化核心参数
batch_size = 10                                # 每一个小批的数量
lr = 0.03                                      # 学习率
#也就是说我们全部都训练完的话,我们一共需要完整地遍历三遍全部的数据
num_epochs = 3                                 # 训练过程遍历几次数据
#生成一个三行一列的全0的权重向量,并且允许这个向量进行求导
#这个特征按照我们的传入的数据有多少个特征,我们就生成一个多长的权重矩阵
w = torch.zeros(3, 1, requires_grad = True)    # 随机设置初始权重

# 参与训练的模型方程
net = linreg                                   # 使用回归方程
loss = squared_loss                            # MSE作为损失函数

# 模型训练过程
#我们的模型迭代的次数
for epoch in range(num_epochs):
	#这个data_iter的函数定义在我们上面前置函数的数据的生成模块中有定义
	#传入的三个参数分别是我们的每一个小批量数据的阿晓
	#我们的特征和标签
	#分别取出我们每一次的小批量数据中的特征和标签
    for X, y in data_iter(batch_size, features, labels):
    #用特征乘以权重,然后跟我们的y异同传入我们的误差计算的函数,计算均方误差,
        l = loss(net(X, w), y)
        #将l进行反向传播,也就是由我们的当前的根节点对于我们前面的一个个节点进行求导操作
        l.backward()
        #进行梯度下降,也就是更新我们的权重矩阵
        sgd(w, lr)
    #在我们完成一轮对于全部的数据集的读取之后,我们将我们的特征乘以我们的权重,也就是x*w,然后用跟我们的正确的标签进行比较,计算我们的均方误差,并且打印出来。
    train_l = loss(net(features, w), labels)
    print('epoch %d, loss %f' % (epoch + 1, train_l))

在这里插入图片描述

2.调库实现线性回归

# 设置随机数种子
torch.manual_seed(420)   

# 创建数据集
features, labels = tensorGenReg()
features = features[:, :-1]                                  # 剔除最后全是1的列
data = TensorDataset(features, labels)                       # 数据封装
#传入我们的数据,然后传入每一个小批量数据集当中的元素个数,然后设置打乱顺序
batchData = DataLoader(data, batch_size = batch_size, shuffle = True)      # 数据加载

1.定义我们线性回归的模型

class LR(nn.Module):
# 定义模型的点线结构
    def __init__(self, in_features=2, out_features=1):       
        super(LR, self).__init__()
		#定义我们的线性模型,默认是传入两个特征,返回一个预测结果
        self.linear = nn.Linear(in_features, out_features)
    
     # 定义模型的正向传播规则
    def forward(self, x):                              
    	#我们的输出就是一对x进行线性回归     
        out = self.linear(x)             
        return out

# 实例化模型
LR_model = LR()

2.定义我们的误差函数

#也就是我们的均方误差
criterion = nn.MSELoss()

3.定义优化方法

#SGD也就是我们的梯度下降的方法,
#传入的两个参数分别是我们模型的全部参数(特征,标签,权重),然后我们的学习率是0.03
optimizer = optim.SGD(LR_model.parameters(), lr = 0.03)

4.模型的训练

#这里定义一个训练函数
#分别传入的是我们的神经网络模型
#我们的损失函数
#我们的优化方法
#我们的每一个小批量的数据的数据个数
#我们的整一个数据集我们一共想完整地遍历几次
def fit(net, criterion, optimizer, batchdata, epochs):
#遍历我们的每一个小批量的数据集
    for epoch in range(epochs):
    #取出每一个小批量数据集当中的特征和标签
        for X, y in batchdata:
        #向前传播,然后得到我们的预测的yhat
		#也就是我们的初始权重乘以我们的特征矩阵的结果
            yhat = net.forward(X)
            #计算我们的均方误差
            loss = criterion(yhat, y)
            #将我们的模型的梯度清空
            optimizer.zero_grad()
            #对我们的模型进行反向传播,也就是一次计算我们的结果对于我们每一个
            #前向结点的导数
            loss.backward()
            #我们的梯度下降进行一次迭代
            optimizer.step() 

5.开始训练

# 设置随机数种子
torch.manual_seed(420)   
#传入我们对应的参数
fit(net = LR_model, 
    criterion = criterion, 
    optimizer = optimizer, 
    batchdata = batchData, 
    epochs = num_epochs)

6.查看模型的参数

# 查看模型参数
list(LR_model.parameters())

在这里插入图片描述

7.计算我们模型的当前的均方误差

# 计算MSE
criterion(LR_model(features), labels)

二、逻辑回归

# 设置随机数种子
torch.manual_seed(420)   

# 创建数据集
#这个函数在我们上面的前置函数的数据生成函数的链接中有
# 创建我们的分类数据集,其中分类的类别一共是两类,并且生成偏置项
#然后如果我们不写参数的话,我们的每一个类别都会有500个数据
#然后一共是两类,也就是一共有1000条数据,然后默认的特征是两个
#也就是我们会得到一个1000×2形状的特征和1000×1的标签
features, labels = tensorGenCla(num_class=2, bias=True)

# 可视化展示
plt.scatter(features[:, 0], features[:, 1], c = labels)

在这里插入图片描述

1.手动实现逻辑回归

1.激活函数

#这里我们指定sigmid函数作为我们的激活函数,这里的z是w*x,也就是我们预测出来德吉结果
#我们预测出来的结果是一个连续型变量,我们需要将其转换成01型变量。
def sigmoid(z):
    return 1/(1+torch.exp(-z))

2.逻辑回归函数

#也就是将我们逻辑回归的结果进行返回
#也就是调用我们上面1中的函数,然后我们就得到了一个我们的模型对于数据集预测的结果
def logistic(X, w):
    return sigmoid(torch.mm(X, w))

3.辅助函数设定阈值

#辅助函数就是将我们传入的sigma函数之后的结果转换成0-1二分类的结果
#这里我们将sigmid函数大于0.5的标记为1类
#小于等于0.5的标记位第0类
#然后如果我们直接sigma>=p的话我们得到的是一个布尔类型的数组
#我们想要将其变成0,1的话,就需要将其转换成浮点的类型
def cal(sigma, p=0.5):
    return((sigma >= p).float())

4.定义准确率函数

#这个sigma是我们的数据再经过sigmiod函数预测之后的结果,y是我们正确的标签
def accuracy(sigma, y):
    #将两个张量拉平,
    #将我们的sigma根据阈值判别成0,1类型,然后和我们的标签进行比较
    acc_bool = cal(sigma).flatten() == y.flatten()
    #求出平均值,也就是我们的预测正确的个数1(true就是1,然后累加,除以总数)
    #然后得到我们预测正确的百分比
    acc = torch.mean(acc_bool.float())
    return(acc)

5.定义损失函数

#y.numel()是y中一共有多少条数据
def cross_entropy(sigma, y):
#这里我们二分类的损失函数我们定义成交叉熵损失函数
    return(-(1/y.numel())*torch.sum((1-y)*torch.log(1-sigma)+y*torch.log(sigma)))

6.定义优化方法

#这里我们用梯度下降对我们的模型进行优化
#这里的params是我们的权重系数w
def sgd(params, lr):
#这里我们需要单独将data进行迭代,否则我们的函数的可导属性就会丢失
        params.data -= lr * params.grad 
        #将我们的导数清空,便于我们的下一次迭代,并且节省内存
        params.grad.zero_()

7.训练模型

# 设置随机数种子
torch.manual_seed(420)    

# 初始化核心参数
batch_size = 10                                # 每一个小批的数量
lr = 0.03                                      # 学习率
num_epochs = 3                                 # 训练过程遍历几次数据
w = torch.ones(3, 1, requires_grad = True)     # 随机设置初始权重

# 参与训练的模型方程
net = logistic                                 # 使用逻辑回归方程
loss = cross_entropy                           # 交叉熵损失函数

# 训练过程
for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
    #计算损失函数
        l = loss(net(X, w), y)
        #进行反向传播
        l.backward()
        #对我们的模型进行梯度下降,进行迭代
        sgd(w, lr)
    #计算模型这一轮迭代的准确率
    #也就是将我们的预测出来的准确率跟我们的标签进行对比
    train_acc = accuracy(net(features, w), labels)
    print('epoch %d, accuracy %f' % (epoch + 1, train_acc))

在这里插入图片描述

2.调库实现逻辑回归

1.定义核心参数

batch_size = 10                                # 每一个小批的数量
lr = 0.03                                      # 学习率
num_epochs = 3                                 # 训练过程遍历几次数据

2.创建数据集

# 设置随机数种子
torch.manual_seed(420)   

# 创建数据集
features, labels = tensorGenCla(num_class=2)
labels = labels.float()                        # 损失函数要求标签也必须是浮点型
#将我们店的特征和标签进行打包,形成一恶搞对象
data = TensorDataset(features, labels)
#将我们的数据加载到batchData中            
batchData = DataLoader(data, batch_size = batch_size, shuffle = True)

3.定义模型

class logisticR(nn.Module):
    def __init__(self, in_features=2, out_features=1):       # 定义模型的点线结构
        super(logisticR, self).__init__()
        #这里我们定义一层线性回归的模型
        self.linear = nn.Linear(in_features, out_features)
        
    def forward(self, x):                                    
        out = self.linear(x)             
        return out

# 实例化模型
logic_model = logisticR()

4.定义损失函数

#也就是我们的交叉熵损失函数
criterion = nn.BCEWithLogitsLoss()

5.定义优化方法

#这里我们的优化方法就是梯度下降法,然后我们需要传入我们模型的所有数据,然后传入我们的学习率
optimizer = optim.SGD(logic_model.parameters(), lr = lr)

6.定义训练函数

#分别传入我们的神经网络模型,我们的损失函数,我们的优化方法,我们的每一个小批量数据集中元素的个数
#还有我们一共想要在整个完整的数据集上迭代几次
def fit(net, criterion, optimizer, batchdata, epochs):
    for epoch in range(epochs):
        for X, y in batchdata:
        #让我们的模型前向传播,得到我们的一轮的预测结果
            zhat = net.forward(X)
            #用我们第一轮的预测结果计算我们当前的损失
            loss = criterion(zhat, y)
            #将我们的优化方法中的导数进行清空
            #因为我们的梯度是累积的,如果不进行清空的话,梯度就会累计起来
            optimizer.zero_grad()
            #将我们的loss函数进行反向传播
            loss.backward()
            #我们的梯度下降函数进行步进,也就是更新我们的w
            optimizer.step()      

7.开始训练

# 设置随机数种子
torch.manual_seed(420)   
#分别传入我们对应的参数
fit(net = logic_model, 
    criterion = criterion, 
    optimizer = optimizer, 
    batchdata = batchData, 
    epochs = num_epochs)

8.查看训练结果

# 查看模型参数
list(logic_model.parameters())

在这里插入图片描述

9.计算交叉熵损失函数

# 计算交叉熵损失
criterion(logic_model(features), labels)

10.计算准确率

def acc_zhat(zhat, y):
    """输入为线性方程计算结果,输出为逻辑回归准确率的函数

    :param zhat:线性方程输出结果 
    :param y: 数据集标签张量
    :return:准确率 
    """
    sigma = sigmoid(zhat)
    return accuracy(sigma, y)

三、softmax回归

# 设置随机数种子
torch.manual_seed(420)   
#这里我们指定我们的均值是6,然后方差是2的正太分布的数据

#然后我们的数据再创建的时候就自动将其调整到我们的0的对称的两边(存在惩罚因子)
features, labels = tensorGenCla(bias=True, deg_dispersion=[6, 2])
plt.scatter(features[:, 0], features[:, 1], c = labels)

在这里插入图片描述

1.手动实现softmax回归

1.softmax函数的定义

def softmax(X, w):
	#将我们预测出来的结果全部变成以e为底的指数
    m = torch.exp(torch.mm(X, w))
    #将我们的上面的m按照行进行相加,然后将我们的性转转换成一列
    sp = torch.sum(m, 1).reshape(-1, 1)
    #用m除以我们的sp,也就是m向量中的每一个元素都会sp中对应行的累加和
    #这样我们就实现了我们的softmax函数
    return m / sp

2.定义交叉熵损失函数

#传入我们预测的结果soft_z和y也就是我们的正确的标签
#这里的soft_z是我们wx进行soft_max函数之后的结果,也就是生成了每一个数据对于不同的标签的概率
#比防说[0.7,0.2,0.1]这样的话就代表着当前这个记录是0类的概率是0.7,是1类的概率是0.2
#是2类的概率是0.1
#
def m_cross_entropy(soft_z, y):
    y = y.long()
    #gather是批量索引的功能,1就是按照行进行索引,y是我们正确的标签
    #也就是我们会索引出我们对于y这个正确的标签预测出来的概率
    prob_real = torch.gather(soft_z, 1, y)
    #y.numel得到y中元素的总个数
    #我们需要将每一个数据进行取对数,然后加和,然后取平均值
    return (-(1/y.numel()) * torch.log(prob_real).sum())

在这里插入图片描述

3.定义准确率函数

def m_accuracy(soft_z, y):
#argmax返回当前张量中最大的元素的下标,这里我们也就是我们预测当前样本属于哪一类概率最大的索引
#将这个索引和y进行比较,看看有多少个是标记正确的
#flatten就是将这个数据拉平
    acc_bool = torch.argmax(soft_z, 1).flatten() == y.flatten()
    acc = torch.mean(acc_bool.float())
    return(acc)

在这里插入图片描述

4.定义优化函数

#定义梯度下降函数
def sgd(params, lr):
    params.data -= lr * params.grad 
    params.grad.zero_()

5.开始训练我们的模型

# 设置随机数种子
torch.manual_seed(420)  

# 初始化核心参数
batch_size = 10                                # 每一个小批的数量
lr = 0.03                                      # 学习率
num_epochs = 3                                 # 训练过程遍历几次数据
w = torch.randn(3, 3, requires_grad = True)    # 随机设置初始权重

# 参与训练的模型方程
net = softmax                                     # 使用回归方程
loss = m_cross_entropy                            # 交叉熵损失函数

train_acc = []

# 模型训练过程
for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
    #计算交叉熵损失
        l = loss(net(X, w), y)
        #进行反向传播,反向进行求导
        l.backward()
        #进行梯度下降,更新我们的w
        sgd(w, lr)
    train_acc = m_accuracy(net(features, w), labels)
    print('epoch %d, acc %f' % (epoch + 1, train_acc))

在这里插入图片描述
这是我们的w,因为是三分类,所以有三列
在这里插入图片描述

2.调库实现softmax回归

1.定义核心参数

batch_size = 10                                # 每一个小批的数量
lr = 0.03                                      # 学习率
num_epochs = 3                                 # 训练过程遍历几次数据

2.创建数据

# 设置随机数种子
torch.manual_seed(420)   

# 创建数据集
features, labels = tensorGenCla(deg_dispersion = [6, 2])
labels = labels.float()                           # 损失函数要求标签也必须是浮点型
data = TensorDataset(features, labels)            
batchData = DataLoader(data, batch_size = batch_size, shuffle = True)

3.定义模型

class softmaxR(nn.Module):
    def __init__(self, in_features=2, out_features=3, bias=False):       
    # 定义模型的点线结构
        super(softmaxR, self).__init__()
        self.linear = nn.Linear(in_features, out_features)
        
    def forward(self, x):                          # 定义模型的正向传播规则
        out = self.linear(x)             
        return out

# 实例化模型和
softmax_model = softmaxR()

3.定义损失函数

#损失函数为交叉熵损失函数
criterion = nn.CrossEntropyLoss()

4.定义我们的优化方法

#我们的优化方法为梯度下降法,然后传入我们模型的所有参数,和学习率
optimizer = optim.SGD(softmax_model.parameters(), lr = lr)

5.定义我们模型的训练函数

#分别传入对应的参数
#我们定义的模型
#我们的损失函数
#我们的优化方法
#我们的每一个小批量数据集中的数据个数
#我们想要在完整的数据集上迭代几次
def fit(net, criterion, optimizer, batchdata, epochs):
    for epoch in range(epochs):
    #分别取出特征和标签
        for X, y in batchdata:
        #向前传播,得出我们的预测结果
            zhat = net.forward(X)
            y = y.flatten().long()       # 损失函数计算要求转化为整数
            #计算损失函数
            loss = criterion(zhat, y)
            #将我们的梯度下降的原有的导数进行清空
            optimizer.zero_grad()
            #将我们的损失函数进行反向传播
            loss.backward()
            #梯度下降,进行迭代
            optimizer.step()

6.训练我们的模型

fit(net = softmax_model, 
    criterion = criterion, 
    optimizer = optimizer, 
    batchdata = batchData, 
    epochs = num_epochs)

7.查看模型的相关参数

# 查看模型参数
print(list(softmax_model.parameters()))

在这里插入图片描述

# 计算交叉熵损失
criterion(softmax_model(features), labels.flatten().long())

在这里插入图片描述

# 借助F.softmax函数,计算准确率
m_accuracy(F.softmax(softmax_model(features), 1), labels)

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/114077.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【5G RLC】AM模式的数据传输详解

博主未授权任何人或组织机构转载博主任何原创文章,感谢各位对原创的支持! 博主链接 本人就职于国际知名终端厂商,负责modem芯片研发。 在5G早期负责终端数据业务层、核心网相关的开发工作,目前牵头6G算力网络技术标准研究。 博客…

Linux内核死锁检测工具——Lockdep

文章目录前言配置内核简单的AB-BA死锁案例实际项目中的死锁前言 死锁是指两个或多个进程因争夺资源而造成的互相等待的现象,如进程A需要资源X,进程B需要资源Y,而双方都掌握对方所需要的资源,且都不释放,这会导致死锁。…

【圣诞快乐】如何用代码画一颗圣诞树?

文章目录一、前言二、创意角度三、java swing版 效果展示四、java swing版 实现步骤&代码五、springboot项目banner版 效果展示六、springboot项目banner版 实现步骤七、 linux shell界面打印版 效果展示八、 linux shell界面打印版 实现步骤一、前言 一年一度的圣诞节来了…

Allegro如何设置差分对内等长规则

Allegro如何设置差分对内等长规则 Allegro上可以对差分网络设置对内等长规则,方便把P/N网络进行等长处理,以下面这对USB为例 具体操作如下 打开Constraint Manage找到这对USB网络

vue3 antd table表格的样式修改(一)调整table表格每行(row)行高过高问题

vue3 antd项目实战——修改ant design vue table组件的默认样式(调整每行行高)知识调用场景复现实际操作解决a-table表格padding过宽知识调用 文章中可能会用到的知识链接vue3ant design vuets实战【ant-design-vue组件库引入】css样式穿透(…

RV1126笔记十三:实现RTMP多路拉流

若该文为原创文章,转载请注明原文出处。 一、介绍 通过RV1126实现RTMP的多路拉流,并在屏幕上显示出来,这里涉及到ffmpeg几个重要知识点,和RV1126如何在屏幕分屏显示。 二、流程图 流程和单路拉流类似,这里只是涉及拉取后的图像需要解码缩放,在合成分屏显示出来。 具体…

【完整】分类模型中类别不均衡问题解决

目录 1. 数据类别不均衡问题 2. 解决办法 过采样: 欠采样: ensemble 方法: 修改损失函数: 梯度调和机制: Dice Loss: 标签平滑: 3. 类别不均衡问题loss设计 4. 梯度调和机制GHM Gradi…

Graphviz安装向导

目录 1、首先在官网下载graphviz 2、安装。 3、测试 1、首先在官网下载graphviz 下载网址:Download | Graphviz 根据自身电脑位数选择合适的下载地址 2、安装。 打开第一步已经下载好的软件。点击下一步,在安装路径选择时可将安装路径修改为 E:\G…

JavaScript:栈的封装及十进制转二进制栈方法实现案例

栈的定义&#xff1a;是只允许在一端进行插入或删除的线性表。首先栈是一种线性表&#xff0c;但限定这种线性表只能在某一端进行插入和删除操作。 JavaScript中对栈的封装 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8&qu…

微信HOOK 协议接口 实战开发篇 2.好友列表与二叉树

前言&#xff1a;由于篇幅所限&#xff0c;文章无法详细到每个步骤&#xff0c;仅能写出关键的HOOK思路 好友列表 好友和群列表在汇编代码中有固定的常量保存 如图示&#xff0c;找到常量&#xff0c;回车进入 入口地址结构为 其指针内部便是我们需要的数据 群列表 搜索Ch…

Linux中的进程状态

目录 一、冯诺伊曼体系结构​编辑 关于冯诺依曼&#xff0c;必须强调几点&#xff1a; 二、操作系统 1、概念 2、操作系统的作用 3、本质 4、总结 5、系统调用和库函数概念 三、进程 1、基本概念 2、描述进程 3、task_struct 4、查看进程 5、通过系统调用获取进程…

第19章 随机变量

第19章 随机变量 19.1随机变量示例 定义19.1.1&#xff1a;概率空间上的随机变量R是域等于样本空间的全函数。 R的陪域可以是任何东西&#xff0c;但通常是实数的一个子集。 例&#xff1a; 例如&#xff0c;假设我们抛三个独立的、公平的硬币。令C表示正面朝上的次数。如…

js中的JSON的简单用法

目录 1.JSON说明 2.JSON.stringify 3.JSON.parse 4.示例 1.JSON说明 当数据在浏览器与服务器之间进行交换时&#xff0c;这些数据只能是文本&#xff0c;JSON 属于文本并且我们能够把任何 JavaScript 对象转换为 JSON&#xff0c;然后将 JSON 发送到服务器。我们也能把从服…

最强docker部署模板

00.背景 最近学校让一个小组做一个web项目最后部署到linux服务器上&#xff0c;项目本身并不难就是简单的增删改查&#xff0c;但是我想借着这个机会写一个docker部署的模板&#xff0c;方便自己以后用&#xff0c;也希望可以帮助到大家。 01.docker简介 docker可以快捷 轻量…

Redis原理篇—网络模型

Redis原理篇—网络模型 笔记整理自 b站_黑马程序员Redis入门到实战教程 用户空间和内核态空间 服务器大多都采用 Linux 系统&#xff0c;这里我们以 Linux 为例来讲解: ubuntu 和 Centos 都是 Linux 的发行版&#xff0c;发行版可以看成对 Linux 包了一层壳&#xff0c;任何 …

第八章:数据库编程

一、嵌入式、过程化SQL、存储过程和函数 1、【单选题】 下表为oracle数据库表cj.temp_20221106的数据。建立存储过程: CREATE OR REPLACE PROCEDURE proc_temp_20221106(i INT) IS CURSOR c_temp IS SELECT * FROM cj.temp_20221106; ROW_NR c_temp%ROWTYPE; i_count …

【Linux】基础IO——系统文件IOfd重定向理解

文章目录一、回顾C文件接口1.打开和关闭2.读写文件3.细节二、系统文件I/O 1.open和closeumask小细节2.read和write1.write2.read3.小总结三、理解文件四、文件描述符fd1.引入2.理解3.分配规则4.close(1)问题五、重定向1.重定向2.接口3.追加重定向4.输入重定向六、Linux一切皆文…

信息技术 定义内涵

工作流运行 定义内涵 工作流运行是工作流模板的依次执行&#xff0c;在工作流运行时&#xff0c;用户可以随时取消或查看正在 运行的任务。由于工作流运行的模板的不同&#xff0c;运行过程中可能会产生不同的新资源&#xff0c;如数据 处理类型的工作流会产生新的数据集&…

Java框架精品项目【用于个人学习】

难度系数说明&#xff1a; 难度系数用来说明项目本身进行分析设计的难度 难度系数大于1的项目可用作参赛作品、大作业、计算机毕业设计等需求 前言 大家好&#xff0c;我是二哈喇子&#xff0c;此博文整理了各种项目需求&#xff0c;用于博主自己学习&#xff0c;当做个人笔记…

黑烟车识别抓拍系统 python

黑烟车识别抓拍系统利用Python基于YOLOv5通过道路已有卡口相机对现场画面中包括黑烟车、车牌信息、车头车尾照片、林格曼黑度等级数据回传给后台。Python是一种由Guido van Rossum开发的通用编程语言&#xff0c;它很快就变得非常流行&#xff0c;主要是因为它的简单性和代码可…