Pytorch | 利用VA-I-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击

news2024/12/26 17:28:26

Pytorch | 利用VA-I-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击

  • CIFAR数据集
  • VA-I-FGSM介绍
    • 相关定义
    • 算法流程
  • VAI-FGSM代码实现
    • VAI-FGSM算法实现
    • 攻击效果
  • 代码汇总
    • vaifgsm.py
    • train.py
    • advtest.py

之前已经针对CIFAR10训练了多种分类器:
Pytorch | 从零构建AlexNet对CIFAR10进行分类
Pytorch | 从零构建Vgg对CIFAR10进行分类
Pytorch | 从零构建GoogleNet对CIFAR10进行分类
Pytorch | 从零构建ResNet对CIFAR10进行分类
Pytorch | 从零构建MobileNet对CIFAR10进行分类
Pytorch | 从零构建EfficientNet对CIFAR10进行分类
Pytorch | 从零构建ParNet对CIFAR10进行分类

也实现了一些攻击算法:
Pytorch | 利用FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用BIM/I-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用MI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用NI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用PI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用VMI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用VNI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用EMI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用AI-FGTM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用I-FGSSM针对CIFAR10上的ResNet分类器进行对抗攻击
Pytorch | 利用SMI-FGRM针对CIFAR10上的ResNet分类器进行对抗攻击

本篇文章我们使用Pytorch实现VA-I-FGSM对CIFAR10上的ResNet分类器进行攻击.

CIFAR数据集

CIFAR-10数据集是由加拿大高级研究所(CIFAR)收集整理的用于图像识别研究的常用数据集,基本信息如下:

  • 数据规模:该数据集包含60,000张彩色图像,分为10个不同的类别,每个类别有6,000张图像。通常将其中50,000张作为训练集,用于模型的训练;10,000张作为测试集,用于评估模型的性能。
  • 图像尺寸:所有图像的尺寸均为32×32像素,这相对较小的尺寸使得模型在处理该数据集时能够相对快速地进行训练和推理,但也增加了图像分类的难度。
  • 类别内容:涵盖了飞机(plane)、汽车(car)、鸟(bird)、猫(cat)、鹿(deer)、狗(dog)、青蛙(frog)、马(horse)、船(ship)、卡车(truck)这10个不同的类别,这些类别都是现实世界中常见的物体,具有一定的代表性。

下面是一些示例样本:
在这里插入图片描述

VA-I-FGSM介绍

VA-I-FGSM(Virtual Step and Auxiliary Gradients Iterative Fast Gradient Sign Method)是一种用于生成对抗样本的算法,旨在提高对抗样本在不同模型之间的转移性。以下是VA-I-FGSM算法的详细介绍:

相关定义

  • 输入与输出:算法的输入包括一个分类器 f f f及其损失函数 J J J、一个良性样本 x x x及其真实标签 y t r u e y^{true} ytrue、标签集合 C C C、迭代次数 T T T、扰动阈值 ϵ \epsilon ϵ、虚拟步长 α \alpha α以及辅助标签的数量 n a u x n_{aux} naux。输出为生成的对抗样本 x a d v x^{adv} xadv
  • 中间变量定义:在算法执行过程中, x t a d v x_{t}^{adv} xtadv表示第 t t t次迭代时的对抗样本,初始化为原始样本 x x x x t + 1 a d v x_{t+1}^{adv} xt+1adv表示第 t + 1 t + 1 t+1次迭代时更新后的对抗样本; x t a d v t m p x_{t}^{adv tmp} xtadvtmp是在计算过程中临时存储的中间变量; y + t r u e y_{+}^{true} y+true表示根据真实标签的损失梯度上升方向更新对抗样本; y − a u x y_{-}^{aux} yaux表示根据辅助标签的损失梯度下降方向更新对抗样本; C a u x C_{aux} Caux表示从标签集合 C C C中随机选择的辅助标签集合,且不包含真实标签 y t r u e y^{true} ytrue

算法流程

  1. 初始化
    • 将对抗样本 x a d v x^{adv} xadv初始化为原始良性样本 x x x,即 x 0 a d v ← x x_{0}^{adv} \leftarrow x x0advx,并设置迭代次数 t ← 0 t \leftarrow 0 t0
  2. 迭代更新:在每次迭代中执行以下操作。
    • 计算基于真实标签的梯度更新:根据当前对抗样本 x t a d v x_{t}^{adv} xtadv和真实标签 y t r u e y^{true} ytrue计算损失函数的梯度 ∇ x J ( x t a d v , y t r u e ) \nabla_{x} J(x_{t}^{adv}, y^{true}) xJ(xtadv,ytrue),然后按照虚拟步长 α \alpha α在梯度方向上更新对抗样本,得到临时变量 x t a d v t m p x_{t}^{adv tmp} xtadvtmp,计算公式为 x t a d v t m p ← x t a d v + α ⋅ s i g n ( ∇ x J ( x t a d v , y t r u e ) ) x_{t}^{adv tmp} \leftarrow x_{t}^{adv}+\alpha \cdot sign(\nabla_{x} J(x_{t}^{adv}, y^{true})) xtadvtmpxtadv+αsign(xJ(xtadv,ytrue))
    • 计算基于辅助标签的梯度更新:从标签集合 C C C中随机选择 n a u x n_{aux} naux个不包含真实标签 y t r u e y^{true} ytrue的辅助标签,组成集合 C a u x C_{aux} Caux。对于每个辅助标签 y a u x ∈ C a u x y^{aux} \in C_{aux} yauxCaux,根据当前对抗样本 x t a d v x_{t}^{adv} xtadv和辅助标签 y a u x y^{aux} yaux计算损失函数的梯度 ∇ x J ( x t a d v , y a u x ) \nabla_{x} J(x_{t}^{adv}, y^{aux}) xJ(xtadv,yaux),然后按照虚拟步长 α \alpha α在梯度的相反方向上更新临时变量 x t a d v t m p x_{t}^{adv tmp} xtadvtmp,计算公式为 x t a d v t m p ← x t a d v t m p − α ⋅ s i g n ( ∇ x J ( x t a d v , y a u x ) ) x_{t}^{adv tmp} \leftarrow x_{t}^{adv tmp}-\alpha \cdot sign(\nabla_{x} J(x_{t}^{adv}, y^{aux})) xtadvtmpxtadvtmpαsign(xJ(xtadv,yaux))
    • 更新对抗样本:将经过上述两步更新后的临时变量 x t a d v t m p x_{t}^{adv tmp} xtadvtmp赋值给下一次迭代的对抗样本 x t + 1 a d v x_{t + 1}^{adv} xt+1adv,即 x t + 1 a d v ← x t a d v t m p x_{t + 1}^{adv} \leftarrow x_{t}^{adv tmp} xt+1advxtadvtmp
    • 迭代次数增加:将迭代次数 t t t增加1,即 t ← t + 1 t \leftarrow t + 1 tt+1
  3. 裁剪最终对抗样本:当迭代次数达到设定的最大值 T T T时,对最终的对抗样本 x T a d v x_{T}^{adv} xTadv进行裁剪操作,使其满足扰动阈值 ϵ \epsilon ϵ的限制,得到最终的对抗样本 x a d v x^{adv} xadv,计算公式为 x a d v ← C l i p x , ϵ { x T a d v } x^{adv} \leftarrow Clip_{x,\epsilon}\{x_{T}^{adv}\} xadvClipx,ϵ{xTadv}

VAI-FGSM代码实现

VAI-FGSM算法实现

import torch
import torch.nn as nn

def VA_I_FGSM(model, criterion, original_images, labels, epsilon, num_iterations=10, num_aux_labels=3):
    """
    VA-I-FGSM (Virtual Step and Auxiliary Gradients Iterative Fast Gradient Sign Method)

    参数:
    - model: 要攻击的模型
    - criterion: 损失函数
    - original_images: 原始图像
    - labels: 原始图像的标签
    - epsilon: 最大扰动幅度
    - num_iterations: 迭代次数
    - virtual_step_size: 虚拟步长
    - num_aux_labels: 辅助标签数量
    """
    # 虚拟步长
    alpha = epsilon / num_iterations    
    # 复制原始图像作为初始的对抗样本
    ori_perturbed_images = original_images.clone().detach().requires_grad_(True)
    perturbed_images = original_images.clone().detach().requires_grad_(True)

    for _ in range(num_iterations):
        outputs = model(ori_perturbed_images)
        loss = criterion(outputs, labels)

        model.zero_grad()
        loss.backward()

        # 计算基于真实标签的梯度
        main_grad = ori_perturbed_images.grad.data.sign()
        perturbed_images = perturbed_images + alpha * main_grad

        # 迭代num_aux_labels次数
        for _ in range(num_aux_labels):
            # 每次迭代中,都随机生成张量aux_labels,其与labels尺寸相同
            aux_labels = torch.randint(low=0, high=10, size=labels.size(), device=original_images.device)

            # 检查并替换与真实标签相同的辅助标签
            mask = aux_labels == labels
            while mask.any():
                aux_labels[mask] = torch.randint(low=0, high=10, size=(mask.sum(),), device=original_images.device)
                mask = aux_labels == labels

            # 计算辅助标签的损失
            outputs = model(ori_perturbed_images)
            aux_loss = criterion(outputs, aux_labels)
            model.zero_grad()
            aux_loss.backward()
            aux_grad = ori_perturbed_images.grad.data.sign()
            perturbed_images = perturbed_images - alpha * aux_grad
            ori_perturbed_images = ori_perturbed_images.detach().requires_grad_(True)

        ori_perturbed_images = ori_perturbed_images.detach().requires_grad_(True)

    # 确保对抗样本在epsilon范围内
    perturbed_images = torch.clamp(perturbed_images, original_images - epsilon, original_images + epsilon)

    return perturbed_images

攻击效果

在这里插入图片描述

代码汇总

vaifgsm.py

import torch
import torch.nn as nn

def VA_I_FGSM(model, criterion, original_images, labels, epsilon, num_iterations=10, num_aux_labels=3):
    """
    VA-I-FGSM (Virtual Step and Auxiliary Gradients Iterative Fast Gradient Sign Method)

    参数:
    - model: 要攻击的模型
    - criterion: 损失函数
    - original_images: 原始图像
    - labels: 原始图像的标签
    - epsilon: 最大扰动幅度
    - num_iterations: 迭代次数
    - virtual_step_size: 虚拟步长
    - num_aux_labels: 辅助标签数量
    """
    # 虚拟步长
    alpha = epsilon / num_iterations    
    # 复制原始图像作为初始的对抗样本
    ori_perturbed_images = original_images.clone().detach().requires_grad_(True)
    perturbed_images = original_images.clone().detach().requires_grad_(True)

    for _ in range(num_iterations):
        outputs = model(ori_perturbed_images)
        loss = criterion(outputs, labels)

        model.zero_grad()
        loss.backward()

        # 计算基于真实标签的梯度
        main_grad = ori_perturbed_images.grad.data.sign()
        perturbed_images = perturbed_images + alpha * main_grad

        # 迭代num_aux_labels次数
        for _ in range(num_aux_labels):
            # 每次迭代中,都随机生成张量aux_labels,其与labels尺寸相同
            aux_labels = torch.randint(low=0, high=10, size=labels.size(), device=original_images.device)

            # 检查并替换与真实标签相同的辅助标签
            mask = aux_labels == labels
            while mask.any():
                aux_labels[mask] = torch.randint(low=0, high=10, size=(mask.sum(),), device=original_images.device)
                mask = aux_labels == labels

            # 计算辅助标签的损失
            outputs = model(ori_perturbed_images)
            aux_loss = criterion(outputs, aux_labels)
            model.zero_grad()
            aux_loss.backward()
            aux_grad = ori_perturbed_images.grad.data.sign()
            perturbed_images = perturbed_images - alpha * aux_grad
            ori_perturbed_images = ori_perturbed_images.detach().requires_grad_(True)

        ori_perturbed_images = ori_perturbed_images.detach().requires_grad_(True)

    # 确保对抗样本在epsilon范围内
    perturbed_images = torch.clamp(perturbed_images, original_images - epsilon, original_images + epsilon)

    return perturbed_images

train.py

import torch
import torch.nn as nn
import torchvision
import torchvision.transforms as transforms
from models import ResNet18


# 数据预处理
transform_train = transforms.Compose([
    transforms.RandomCrop(32, padding=4),
    transforms.RandomHorizontalFlip(),
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])

transform_test = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])

# 加载Cifar10训练集和测试集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=False, transform=transform_train)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=False, transform=transform_test)
testloader = torch.utils.data.DataLoader(testset, batch_size=100, shuffle=False, num_workers=2)

# 定义设备(GPU或CPU)
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

# 初始化模型
model = ResNet18(num_classes=10)
model.to(device)

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)

if __name__ == "__main__":
    # 训练模型
    for epoch in range(10):  # 可以根据实际情况调整训练轮数
        running_loss = 0.0
        for i, data in enumerate(trainloader, 0):
            inputs, labels = data[0].to(device), data[1].to(device)

            optimizer.zero_grad()

            outputs = model(inputs)
            loss = criterion(outputs, labels)
            loss.backward()
            optimizer.step()

            running_loss += loss.item()
            if i % 100 == 99:
                print(f'Epoch {epoch + 1}, Batch {i + 1}: Loss = {running_loss / 100}')
                running_loss = 0.0

    torch.save(model.state_dict(), f'weights/epoch_{epoch + 1}.pth')
    print('Finished Training')

advtest.py

import torch
import torch.nn as nn
import torchvision
import torchvision.transforms as transforms
from models import *
from attacks import *
import ssl
import os
from PIL import Image
import matplotlib.pyplot as plt

ssl._create_default_https_context = ssl._create_unverified_context

# 定义数据预处理操作
transform = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.491, 0.482, 0.446), (0.247, 0.243, 0.261))])

# 加载CIFAR10测试集
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=False, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=128,
                                         shuffle=False, num_workers=2)

# 定义设备(GPU优先,若可用)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

model = ResNet18(num_classes=10).to(device)

criterion = nn.CrossEntropyLoss()

# 加载模型权重
weights_path = "weights/epoch_10.pth"
model.load_state_dict(torch.load(weights_path, map_location=device))


if __name__ == "__main__":
    # 在测试集上进行FGSM攻击并评估准确率
    model.eval()  # 设置为评估模式
    correct = 0
    total = 0
    epsilon = 16 / 255  # 可以调整扰动强度
    for data in testloader:
        original_images, labels = data[0].to(device), data[1].to(device)
        original_images.requires_grad = True
        
        attack_name = 'VA-I-FGSM'
        if attack_name == 'FGSM':
            perturbed_images = FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'BIM':
            perturbed_images = BIM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'MI-FGSM':
            perturbed_images = MI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'NI-FGSM':
            perturbed_images = NI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'PI-FGSM':
            perturbed_images = PI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'VMI-FGSM':
            perturbed_images = VMI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'VNI-FGSM':
            perturbed_images = VNI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'EMI-FGSM':
            perturbed_images = EMI_FGSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'AI-FGTM':
            perturbed_images = AI_FGTM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'I-FGSSM':
            perturbed_images = I_FGSSM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'SMI-FGRM':
            perturbed_images = SMI_FGRM(model, criterion, original_images, labels, epsilon)
        elif attack_name == 'VA-I-FGSM':
            perturbed_images = VA_I_FGSM(model, criterion, original_images, labels, epsilon)
        
        perturbed_outputs = model(perturbed_images)
        _, predicted = torch.max(perturbed_outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

    accuracy = 100 * correct / total
    # Attack Success Rate
    ASR = 100 - accuracy
    print(f'Load ResNet Model Weight from {weights_path}')
    print(f'epsilon: {epsilon:.4f}')
    print(f'ASR of {attack_name} : {ASR :.2f}%')

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2265942.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

20241225在ubuntu20.04.5下监控SSD

20241225在ubuntu20.04.5下监控SSD 2024/12/25 20:29 参考资料: 百度:ubuntu查看ssd寿命 方法 1:使用「磁盘」工具监测 SSD 健康状态 sudo apt install gnome-disk-utility 方法 2:使用 smartctl 工具检查 SSD 健康状态 Ubuntu 和…

mvn install:install-file jar 打入本地仓库

安装指定文件到本地仓库命令:mvn http://install:install-file -DgroupId : 设置上传到仓库的包名 -DartifactId : 设置该包所属的模块名 -Dversion1.0.0 : 设置该包的版本号 -Dpackagingjar : 设置该包的类型(很显然jar包) -Dfile : 设置该jar包文件所在的路径…

CentOS下,离线安装vscode的步骤;

前置条件: 1.CentOS7; 步骤: 1.下载vscode指定版本,例如; 例如 code-1.83.1-1696982959.el7.x86_64.rpm 2.使用下面命令: sudo rpm -ivh code-1.83.1-1696982959.el7.x86_64.rpm 其他: 卸载vscode的命…

【CSS in Depth 2 精译_087】14.4:CSS 中的浮动特效以及在文字环绕中的应用 + 14.5:本章小结

当前内容所在位置(可进入专栏查看其他译好的章节内容) 第四部分 视觉增强技术 ✔️【第 14 章 蒙版、形状与剪切】 ✔️ 14.1 滤镜 14.1.1 滤镜的类型14.1.2 背景滤镜 14.2 蒙版 14.2.1 带渐变效果的蒙版特效14.2.2 基于亮度来定义蒙版14.2.3 其他蒙版属…

2025考研加油!Jing也加油哦!

一恍惚,离自己考研初试过去都两年了!研究生生活也过去一大半!借此机会也总结一下研究生这一段生活——研究生生活(上) About I 昨天实验室聚餐,作为老生欢迎新生,啊啊啊,真的没想到…

Flink调优----资源配置调优与状态及Checkpoint调优

目录 第 1 章 资源配置调优 1.1 内存设置 1.1.1 TaskManager 内存模型 1、内存模型详解 2、案例分析 1.1.2 生产资源配置示例 1.2 合理利用 cpu 资源 1.2.1 使用 DefaultResourceCalculator 策略 1.2.2 使用 DominantResourceCalculator 策略 1.2.3 使用 DominantRes…

9. zynq应用开发--makefile编译

3. 使用SDK工具 如果只做 Linux 应用开发,只需要一个 sdk.sh 文件即可,可以脱离 Petalinux 和 Vitis,也可以编译其三方的应用,可以说一劳永逸。 配置根文件系统 petalinux-config -c rootfs 编译SDK petalinux-build --sdk Linu…

【ORB-SLAM3:相机针孔模型和相机K8模型】

在ORB-SLAM3中,相机的建模是 SLAM 系统的核心之一,因为它直接影响到如何处理和利用图像数据进行定位和地图构建。ORB-SLAM3 支持不同的相机模型,其中包括针孔模型和鱼眼模型(K8 模型)。下面分别介绍这两种模型。 相机…

element-plus在Vue3中开发相关知识

报错&#xff1a;error.mjs:20 ElementPlusError: [ElForm] model is required for resetFields to work. 原因&#xff1a;el-form使用v-model没有把内容绑定上&#xff0c;需要使用 :model 才可以校验 将&#xff1a; <el-form label-width"auto" class"…

HarmonyOS NEXT 实战之元服务:静态案例效果--- 日出日落

背景&#xff1a; 前几篇学习了元服务&#xff0c;后面几期就让我们开发简单的元服务吧&#xff0c;里面丰富的内容大家自己加&#xff0c;本期案例 仅供参考 先上本期效果图 &#xff0c;里面图片自行替换 效果图1完整代码案例如下&#xff1a; import { authentication } …

使用Vue的props进行组件传递校验时出现 Extraneous non-props attributes的解决方案

作者&#xff1a;CSDN-PleaSure乐事 欢迎大家阅读我的博客 希望大家喜欢 使用环境&#xff1a;WebStorm 目录 出现错误的情况 报错&#xff1a; 代码&#xff1a; 报错截图 原因分析 解决方案 方法一 方法二 出现错误的情况 以下是我遇到该错误时遇到的报错和代码&…

基础运维学习计划-base版

目录 需要学习的内容&#xff1f; liunx基础 sql/mysql基础 tcp/ip协议基础 http基础 dns基础 网络基础&#xff1a;交换&路由概念&原理 常见网络协议 月学习计划 12.26 日 &#xff08;bilibili自己找视频看看&#xff0c;资源很多&#xff09; 12.27日 1…

亚信安全与方天股份达成战略合作,双向奔赴助力数字化转型

近日&#xff0c;亚信安全科技股份有限公司&#xff08;以下简称“亚信安全”&#xff09;正式与青岛方天科技股份有限公司&#xff08;以下简称“方天股份”&#xff09;签订合作框架协议。双方强强携手&#xff0c;在网络安全运营平台共建、信息化项目安全支撑、政企市场拓展…

117.【C语言】数据结构之排序(选择排序)

目录 1.知识回顾 2.分析 设想的思路 代码 执行结果 ​编辑 错误排查和修复 详细分析出错点 执行结果 3.正确的思路 4.其他问题 1.知识回顾 参见42.5【C语言】选择排序代码 点我跳转 2.分析 知识回顾里所提到的文章的选择排序一次循环只比一个数字,和本文接下来要…

画展在线上通过虚拟展厅展览,如何实现?有何好处?

画展在线上通过虚拟展厅展览的实现方式及好处可以归纳如下&#xff1a; 一、实现方式 1、技术基础&#xff1a; 虚拟现实&#xff08;VR&#xff09;技术&#xff1a;利用VR技术&#xff0c;观众可以佩戴VR设备身临其境地参观展厅&#xff0c;与展品进行直观互动。 三维建模…

WordPress Tutor LMS插件 SQL注入漏洞复现(CVE-2024-10400)

0x01 产品简介 WordPress Tutor LMS插件是一款功能丰富且强大的学习管理系统(LMS)插件,它专为WordPress平台设计,旨在帮助用户轻松创建、管理和销售在线课程。功能强大且易于使用的学习管理系统插件。它提供了完整的在线课程市场解决方案,帮助用户轻松创建、管理和销售在…

Spring源码_05_IOC容器启动细节

前面几章&#xff0c;大致讲了Spring的IOC容器的大致过程和原理&#xff0c;以及重要的容器和beanFactory的继承关系&#xff0c;为后续这些细节挖掘提供一点理解基础。掌握总体脉络是必要的&#xff0c;接下来的每一章都是从总体脉络中&#xff0c; 去研究之前没看的一些重要…

主流AI视频生成工具|Sora零基础入门指南

Sora是什么&#xff1f; Sora 是 OpenAI 推出的新一代 AI 视频生成工具。它能让用户通过简单的文本描述或图片提示&#xff0c;快速生成高质量的视频内容。无论是广告短片、创意视频&#xff0c;还是实验性艺术作品&#xff0c;Sora 都能帮助创作者以极低的门槛实现自己的想法。…

VUE3+django接口自动化部署平台部署说明文档(使用说明,需要私信)

网址连接&#xff1a;http://118.25.110.213:5200/#/login 账号/密码&#xff1a;renxiaoyong 1、VUE3部署本地。 1.1本地安装部署node.js 1.2安装vue脚手架 npm install -g vue/cli # 或者 yarn global add vue/cli1.3创建本地项目 vue create my-vue-project1.4安装依赖和插…

“乡村探索者”:村旅游网站的移动应用开发

3.1 可行性分析 从三个不同的角度来分析&#xff0c;确保开发成功的前提是有可行性分析&#xff0c;只有进行提前分析&#xff0c;符合程序开发流程才不至于开发过程的中断。 3.1.1 技术可行性 在技术实现层次&#xff0c;分析了好几种技术实现方法&#xff0c;并且都有对应的成…