【Hugging Face 开源库】Diffusers 库 —— 扩散模型

news2025/3/31 17:12:33

  • Diffusers 的三个主要组件
    • 1. DiffusionPipeline:端到端推理工具
      • `__call__` 函数
      • `callback_on_step_end` 管道回调函数
    • 2. 预训练模型架构和模块
      • UNet
      • VAE(Variational AutoEncoder)
      • 图像尺寸与 UNet 和 VAE 的关系
      • EMA(Exponential Moving Average)
    • 3. 调度器(Schedulers)

Diffusers 是 Hugging Face 开源的 Python 库,专门用于加载、训练和推理扩散模型(Diffusion Models)。

扩散模型是一类生成式模型,它们通过添加和去除噪声来生成高质量图像、音频和视频。

《从零开始学扩散模型》

在这里插入图片描述

Diffusers 的三个主要组件

1. DiffusionPipeline:端到端推理工具

DiffusionPipeline 是 Diffusers 库的核心组件之一,它提供了一个高层 API,帮助用户快速从预训练的扩散模型中生成样本,而无需深入了解底层实现。

示例:使用 Stable Diffusion 生成图像

from diffusers import StableDiffusionPipeline
import torch

# 加载预训练的 Stable Diffusion 模型
pipeline = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5")
pipeline.to("cuda")  # 使用 GPU 加速

# 生成图像
prompt = "a futuristic city at sunset, high detail, digital painting"
image = pipeline(prompt).images[0]

# 显示图像
image.show()
  • 通过 from_pretrained() 加载 Hugging Face Hub 上的 Stable Diffusion 预训练模型。

    unwayml/stable-diffusion-v1-5 是 Stable Diffusion v1.5 预训练模型的 权重(weights),它被托管在 Hugging Face Hub 上,供用户下载并进行推理或微调。
    在 Diffusers 库中,from_pretrained("runwayml/stable-diffusion-v1-5") 其实是加载该模型的预训练参数,包括:

    • UNet(去噪网络)
    • VAE(变分自编码器,用于图像编码和解码)
    • Text Encoder(如 CLIP,用于处理文本输入)
    • 调度器(Scheduler,用于指导去噪过程)

    这些组件的权重都是从 runwayml/stable-diffusion-v1-5 仓库中下载的。

  • 只需输入 prompt(文本描述),就能生成相应的图像。

__call__ 函数

在 Python 中,__call__ 是一个特殊的方法,它 允许一个对象像函数一样被调用。当你调用一个对象时,Python 实际上是调用了这个对象的 __call__ 方法。

在这里插入图片描述
在 diffusers 库中,所有的管道对象(如 StableDiffusionPipeline)都实现了一个 __call__ 方法,用于处理图像生成任务,所以说 管道(pipeline)对象可以像函数一样被调用

让我们实现一个 简单的管道对象(Pipeline),用来模拟 Diffusers 的 __call__ 方法是如何工作的。这个管道将接受一个文本 prompt,然后通过一个简单的 UNet 模型 生成一个伪图像(这里只是模拟,不是实际的图像生成)。

示例:实现一个简单的 DiffusionPipeline

import torch
import torch.nn as nn

class SimpleUNet(nn.Module):
    """ 一个简单的 UNet 模型模拟去噪过程 """
    def __init__(self):
        super().__init__()
        self.fc = nn.Linear(100, 100)  # 简化的全连接层

    def forward(self, x):
        return self.fc(x)  # 这里只是简单的线性变换

class SimplePipeline:
    """ 一个简单的管道对象,模拟 DiffusionPipeline 的 __call__ 方法 """
    def __init__(self):
        self.unet = SimpleUNet()  # 预训练的去噪模型
        self.device = "cuda" if torch.cuda.is_available() else "cpu"
        self.unet.to(self.device)

    def __call__(self, prompt: str):
        """ 模拟调用管道进行图像生成 """
        print(f"Processing prompt: {prompt}")

        # 1. 生成随机噪声作为输入
        noise = torch.randn(1, 100).to(self.device)

        # 2. 通过 UNet 进行处理
        output = self.unet(noise)

        # 3. 模拟图像输出
        return output.detach().cpu().numpy()

# 使用管道
pipeline = SimplePipeline()
generated_image = pipeline("A beautiful sunset over the ocean")  # 通过 __call__ 触发
print("Generated image shape:", generated_image.shape)
  1. SimpleUNet:

    • 这里用一个简单的 全连接层 代替真正的 UNet(通常是 CNN)。
    • 这个网络用于处理随机噪声,模拟去噪过程。
  2. SimplePipeline:

    • __init__ 方法:创建一个 UNet 模型并加载到 GPU(如果可用)。
    • __call__ 方法:
      • 接收文本提示 prompt(但这里的代码没有真正解析文本,仅模拟处理)。
      • 生成随机噪声,作为输入。
      • 通过 UNet 处理,得到输出。
      • 返回最终“生成的图像”(其实只是一个数值数组)。
  3. 如何使用 __call__ 方法:

    • pipeline("A beautiful sunset over the ocean") 直接调用 实例,会自动触发 __call__ 方法。
    • 这样 对象本身就像一个函数一样可以调用,符合 Diffusers 设计风格。

可以在 __call__ 方法中 添加真正的 VAE、文本编码器、调度器 来让它更接近 Diffusers 的 DiffusionPipeline

这样,pipeline("prompt") 的行为就类似于 StableDiffusionPipeline(prompt) 了! 🚀

在实际的 diffusers 库中,管道对象的 __call__ 方法会处理各种输入嵌入、噪声调度器、生成模型等,最终生成高质量的图像。例如,在 StableDiffusionPipeline 中,__call__ 方法会接受提示、图像嵌入等,并通过扩散模型逐步生成图像。

callback_on_step_end 管道回调函数

callback_on_step_end 允许我们在 扩散管道的每一步去噪迭代结束时 执行 自定义回调函数

这样,可以 动态修改管道的属性或调整张量,而 无需修改 Diffusers 库的底层代码

举个栗子,使用回调函数 在去噪的不同阶段动态调整 guidance_scale(引导比例),让模型在去噪的前几步加强条件引导(更遵循 prompt),后几步减少 guidance_scale 以生成更自然的图像。

import torch
from diffusers import StableDiffusionPipeline, DDIMScheduler

# 加载 Stable Diffusion 管道
pipeline = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5")
pipeline.scheduler = DDIMScheduler.from_config(pipeline.scheduler.config) # 切换 DDIMScheduler 作为调度器
pipeline.to("cuda")

# 定义回调函数
def dynamic_guidance_callback(pipe, i, latents):
    """
    在去噪过程的每一步,动态修改 guidance_scale
    :param pipe: 当前管道对象
    :param i: 当前去噪步数
    :param latents: 当前的潜变量
    """
    total_steps = pipe.scheduler.config.num_train_timesteps
    if i < total_steps * 0.3:  # 在前 30% 的步数里,增加 guidance_scale
        pipe.guidance_scale = 10.0  
    elif i < total_steps * 0.6:  # 在 30% - 60% 的步数里,降低 guidance_scale
        pipe.guidance_scale = 7.5  
    else:  # 在最后 40% 的步数里,进一步减少
        pipe.guidance_scale = 5.0  

    print(f"Step {i}: guidance_scale set to {pipe.guidance_scale}")

# 生成图像
prompt = "A futuristic city with neon lights at night"

# 在 pipeline() 调用时传递 callback_on_step_end
image = pipeline(prompt, callback_on_step_end=dynamic_guidance_callback).images[0]

# 显示图像
image.show()

这个回调函数在 每次去噪步骤结束后执行,并动态调整 guidance_scale

  • 前 30% 的步数:使用 更高的 guidance_scale = 10.0,让生成的图像更符合 prompt 描述。

  • 30% - 60% 步数:降低 guidance_scale 到 7.5,让图像稍微放松对 prompt 的严格约束。

  • 最后 40% 步数:进一步降低到 5.0,让图像更自然,减少过度引导导致的“过拟合”问题。

Pipeline callbacks
除了动态调整 guidance_scale,还可以用 callback_on_step_end 进行:

  • 添加自定义去噪步骤(比如在中间步骤插入额外的图像操作)
  • 修改 latents 变量(例如,在某些步数中加入额外的噪声或调整颜色分布)
  • 记录或可视化去噪过程(比如,每隔 10 步保存当前的潜变量图像,观察去噪演化)

2. 预训练模型架构和模块

Diffusers 提供了许多 预训练的模型组件,可以用来构建新的扩散系统,例如:

  • UNet(去噪神经网络)
  • VAE(Variational Autoencoder)(用于图像编码和解码)
  • Text Encoder(例如 CLIP,用于理解文本提示)

示例:使用 UNet 作为去噪模型

from diffusers import UNet2DModel

# 定义一个 UNet 模型
unet = UNet2DModel(
    sample_size=64,  # 图像大小
    in_channels=3,    # RGB 颜色通道
    out_channels=3,
    layers_per_block=2,
    block_out_channels=(64, 128, 256),
)

# 查看模型参数
print(unet)
  • UNet2DModel 是扩散模型的核心组件之一,负责在训练和推理过程中去噪。
  • 这里的 UNet 结构可以自定义,如通道数、块的层数等。

UNet

U-Net: Convolutional Networks for Biomedical Image Segmentation

Unet 最初设计用于生物医学图像分割。
在这里插入图片描述
UNet 是一种 卷积神经网络 架构,结构类似于一个对称的 U 字形,由 编码器(下采样)和解码器(上采样) 组成。

  • 编码器逐步提取图像特征并缩小空间维度,
  • 解码器则将这些特征还原到原始的空间维度,同时逐步增加分辨率。
    在这里插入图片描述

UNet 的关键特性:

  • 对称结构:编码器和解码器对称分布。
  • 跳跃连接:直接将编码器的中间层输出传递到解码器的对应层,保留了高分辨率特征。
  • 多尺度特征提取:在不同尺度上提取特征,提升了网络对细节的捕捉能力。

在这里插入图片描述

VAE(Variational AutoEncoder)

VAE(Variational AutoEncoder) 变分自编码器是一种生成模型,通过学习输入数据的潜在表示来生成新数据。

VAE 由编码器和解码器组成:

  • 编码器:将 输入图像 转换为 潜在空间的分布(均值和方差)。
  • 解码器:从潜在空间的采样生成 新图像
    在这里插入图片描述
    在这里插入图片描述

VAE 的关键特性:

  • 概率模型:VAE 学习输入数据的概率分布,从而生成多样化的样本。
  • 连续潜在空间:潜在空间中的小变化会导致生成图像的小变化,具有很好的连续性。

图像尺寸与 UNet 和 VAE 的关系

在图像生成任务中,输入图像的尺寸需要匹配 UNet 和 VAE 的预期输入输出尺寸。

在 diffusers 库的 MimicBrushPipeline(或类似的图像生成管道)中,默认的输入图像尺寸是通过以下代码计算的:

height = height or self.unet.config.sample_size * self.vae_scale_factor
width = width or self.unet.config.sample_size * self.vae_scale_factor

Stable Diffusion 生成图像时,涉及 VAE(变分自编码器) 和 UNet(去噪网络):

  • VAE 作用:将高清图像 压缩 成一个 低维潜空间(latent space),然后再 解码 回原始尺寸。

  • UNet 作用:在潜空间中 去噪,逐步优化潜变量,使其接近真实图像的潜变量。

关键点VAE 会对图像进行 vae_scale_factor 倍缩放。举个栗子吧,

  • 输入 VAE 的图像: 512×512

  • 经过 VAE 编码后: 512/8 = 64×64(缩小 8 倍)

  • UNet 处理的就是 64 × 64 的潜变量。

所以:

  • height=64×8=512
  • width=64×8=512

这确保了:

  • UNet 处理 64 × 64 潜变量时尺寸正确。

  • VAE 进行解码时,最终输出的是 512 × 512 的图像。

EMA(Exponential Moving Average)

EMA(指数移动平均)是一种 平滑技术,在深度学习中,常用于 存储模型可学习参数的局部平均值

可以把它看作一个“影子模型”,它的参数不是简单地复制原模型,而是随着训练 以指数衰减的方式 逐步向原模型靠拢。

为什么要使用 EMA?

  • 提高模型稳定性:在训练过程中,模型参数可能会剧烈波动,EMA 平均化了参数,使其更稳定。
  • 提升泛化能力:直接使用 EMA 计算的参数进行推理,通常比原始参数表现更好,尤其是在 少量训练步数 下。
  • 适用于生成模型(如 Diffusion Models):Diffusers 库中的 Stable Diffusion 训练时 使用 EMA 来平滑 UNet 权重,使生成的图像更加稳定
  • 在半监督学习中常用:如 Mean Teacher 方法,使用 EMA 计算的模型作为“教师”模型指导学生模型学习

EMA 在累积历史信息的同时,更关注最近的更新,从而对新数据变化更敏感,而不会受太早的参数扰动。

假设:

  • θ t \theta_t θt 是第 t t t 轮训练的模型参数
  • θ EMA , t \theta_{\text{EMA},t} θEMA,t 是第 t t t 轮的 EMA 计算的影子参数
  • α \alpha α 是 EMA 衰减系数(通常取 0.99 ~ 0.999

EMA 参数的更新方式:
θ EMA , t = α ⋅ θ EMA , t − 1 + ( 1 − α ) ⋅ θ t \theta_{\text{EMA},t} = \alpha \cdot \theta_{\text{EMA},t-1} + (1 - \alpha) \cdot \theta_t θEMA,t=αθEMA,t1+(1α)θt
这意味着:

  • 较早的参数影响力逐渐减弱(因为乘以了 α \alpha α)。
  • 最近的参数更新权重更大(乘以 1 − α 1 - \alpha 1α)。
  • 选择 较大的 α \alpha α(如 0.999),EMA 更新较慢,适用于平滑长时间的变化。

为什么较早的参数影响力逐渐减弱?

我们可以将 EMA 当前参数展开,看看它是如何由历史所有参数的加权平均组成的:

θ EMA , t = ( 1 − α ) ⋅ θ t + α ( 1 − α ) ⋅ θ t − 1 + α 2 ( 1 − α ) ⋅ θ t − 2 + α 3 ( 1 − α ) ⋅ θ t − 3 + … \theta_{\text{EMA},t} = (1 - \alpha) \cdot \theta_t + \alpha (1 - \alpha) \cdot \theta_{t-1} + \alpha^2 (1 - \alpha) \cdot \theta_{t-2} + \alpha^3 (1 - \alpha) \cdot \theta_{t-3} + \dots θEMA,t=(1α)θt+α(1α)θt1+α2(1α)θt2+α3(1α)θt3+

这说明:

  • 最近的参数 θ t \theta_t θt 乘以 1 − α 1 - \alpha 1α(即 0.01),虽然数值小,但它是最新的更新,影响直接而强烈。
  • 较早的参数 θ t − 1 , θ t − 2 \theta_{t-1}, \theta_{t-2} θt1,θt2 乘以 α , α 2 \alpha, \alpha^2 α,α2 等次幂,影响力随着时间推移呈指数级衰减。
  • 老的参数贡献依然存在,但比重越来越小,这使得 EMA 更关注近期变化,而不会被早期的不稳定训练步骤影响太多。

💡直觉理解 EMA 的本质是一种带有“记忆衰减”的平滑机制

  • 老的参数不会立刻丢失,但它的影响会随着时间逐步减弱,让新数据有更大的话语权。
  • 虽然最近参数的权重(1 - α = 0.01)看似小,但它不会被 EMA 继续削弱,因此它的相对影响力更大
  • 较早的参数影响力会随着 α t \alpha^t αt 指数级减少,长期来看其贡献会趋近于 0

如果 α = 0.99 \alpha = 0.99 α=0.99,那么过去 5 个时间步的参数贡献依次为:
Step  t : ( 1 − α ) = 0.01 Step  t − 1 : 0.99 × 0.01 = 0.0099 Step  t − 2 : 0.9 9 2 × 0.01 = 0.009801 Step  t − 3 : 0.9 9 3 × 0.01 = 0.00970299 Step  t − 4 : 0.9 9 4 × 0.01 = 0.0096059601 \begin{aligned} \text{Step } t: & \quad (1 - \alpha) = 0.01 \\ \text{Step } t-1: & \quad 0.99 \times 0.01 = 0.0099 \\ \text{Step } t-2: & \quad 0.99^2 \times 0.01 = 0.009801 \\ \text{Step } t-3: & \quad 0.99^3 \times 0.01 = 0.00970299 \\ \text{Step } t-4: & \quad 0.99^4 \times 0.01 = 0.0096059601 \\ \end{aligned} Step t:Step t1:Step t2:Step t3:Step t4:(1α)=0.010.99×0.01=0.00990.992×0.01=0.0098010.993×0.01=0.009702990.994×0.01=0.0096059601

下面是一个简单的 PyTorch EMA 代码示例,展示如何在训练过程中维护一个 EMA 版本的模型参数。

import torch
import torch.nn as nn

class EMA:
    """指数移动平均(EMA),用于平滑模型参数"""
    def __init__(self, model, decay=0.999):
        self.model = model
        self.decay = decay  # EMA 影子参数衰减系数
        self.shadow = {name: param.clone().detach() for name, param in model.named_parameters()}

    def update(self):
        """更新 EMA 影子模型参数"""
        for name, param in self.model.named_parameters():
            if param.requires_grad:
                self.shadow[name] = self.decay * self.shadow[name] + (1 - self.decay) * param.detach()

    def apply_shadow(self):
        """使用 EMA 参数更新原模型(推理时调用)"""
        for name, param in self.model.named_parameters():
            if param.requires_grad:
                param.data.copy_(self.shadow[name])

# 创建简单的神经网络
class SimpleModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.fc = nn.Linear(10, 1)

    def forward(self, x):
        return self.fc(x)

# 初始化模型和 EMA 影子模型
model = SimpleModel()
ema = EMA(model, decay=0.99)

# 模拟训练过程
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for step in range(100):
    # 训练步骤(假设 x 是输入数据)
    x = torch.randn(16, 10)
    loss = model(x).mean()
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    # 更新 EMA 影子模型
    ema.update()

    if step % 10 == 0:
        print(f"Step {step}: loss={loss.item():.4f}")

# 在推理时应用 EMA 参数
ema.apply_shadow()
  1. EMA

    • 维护了 shadow(影子模型参数)。
    • 通过 update() 逐步更新 EMA 版本的参数。
    • apply_shadow() 用于推理时将 EMA 参数应用到原模型上。
  2. 训练过程中

    • 每次模型参数更新后,调用 ema.update(),让影子模型参数缓慢跟随原模型更新。
  3. 推理时

    • ema.apply_shadow() 把 EMA 版本的参数复制到模型,通常能获得 更好的性能

在 diffusers 库中,EMA 主要用于 训练 UNet(去噪网络)

  • 训练过程中,EMA 版本的 UNet 逐步更新。
  • 在推理时,使用 EMA 版本的 UNet 进行采样,以 提高图像质量。

Diffusers 使用 EMAModel 进行 EMA 计算:

from diffusers.models import EMAModel
# 初始化 EMA 模型
ema_unet = EMAModel(pipeline.unet.parameters(), decay=0.999)
# 在训练后更新 EMA 影子模型
ema_unet.step(pipeline.unet.parameters())
# 复制 EMA 参数到 UNet(推理时)
ema_unet.copy_to(pipeline.unet.parameters())

3. 调度器(Schedulers)

Scheduler,中文译为“调度器”,在扩散模型中负责控制噪声的添加和去除过程

它定义了 在每个扩散步骤中,向数据添加多少噪声,以及在去噪过程中如何逐步恢复原始数据。

在这里插入图片描述

Diffusers 库提供了多种调度器,例如:

  • DDIMScheduler(去噪扩散隐变量模型)
  • PNDMScheduler(更快的推理)
  • DPMSolverMultistepScheduler(更稳定的采样)

示例:使用不同调度器进行推理

from diffusers import StableDiffusionPipeline, DPMSolverMultistepScheduler

# 加载 Stable Diffusion 并更换调度器
pipeline = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5")
pipeline.scheduler = DPMSolverMultistepScheduler.from_config(pipeline.scheduler.config)

# 生成图像
prompt = "a magical forest with glowing trees"
image = pipeline(prompt).images[0]
image.show()
  • pipeline.scheduler = DPMSolverMultistepScheduler.from_config(...) 切换不同的去噪调度器。
  • 不同的调度器会影响生成速度和图像质量,比如 DPMSolver 可以加快采样,同时保持高质量输出。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2323544.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

AWTK-WEB 快速入门(6) - JS WebSocket 应用程序

WebSocket 可以实现双向通信&#xff0c;适合实时通信场景。本文介绍一下使用 Javacript 语言开发 AWTK-WEB 应用程序&#xff0c;并用 WebSocket 与服务器通讯。 用 AWTK Designer 新建一个应用程序 先安装 AWTK Designer&#xff1a; https://awtk.zlg.cn/web/index.html …

使用VSCODE导致CPU占用率过高的处理方法

1&#xff1a;cpptools 原因&#xff1a;原因是C/C会在全局搜索文件&#xff0c;可以快速进行跳转&#xff1b;当打开的文件过大&#xff0c;全局搜索文件会占用大量CPU&#xff1b; 处理方法&#xff1a; 1&#xff1a;每次只打开小文件夹&#xff1b; 2&#xff1a;打开大文…

【力扣hot100题】(004)盛水最多的容器

现在能这么快做出来纯粹是因为当时做的时候给我的印象实在太深了。 犹记得这题是当年开启我用CSDN记录leetcode日记历史的开端。 总之印象太深了不会都不行啊&#xff01;&#xff01;记得当年是想到用各种动态规划回溯等等等等最终发现是最简单贪心和双指针。 解法也是非常简…

用Deepseek写扫雷uniapp小游戏

扫雷作为Windows系统自带的经典小游戏&#xff0c;承载了许多人的童年回忆。本文将详细介绍如何使用Uniapp框架从零开始实现一个完整的扫雷游戏&#xff0c;包含核心算法、交互设计和状态管理。无论你是Uniapp初学者还是有一定经验的开发者&#xff0c;都能从本文中获得启发。 …

Eclipse IDE for ModusToolbox™ 3.4环境通过JLINK调试CYT4BB

使用JLINK在Eclipse IDE for ModusToolbox™ 3.4环境下调试CYT4BB&#xff0c;配置是难点。总结一下在IDE中配置JLINK调试中遇到的坑&#xff0c;以及如何一步一步解决遇到的问题。 1. JFLASH能够正常下载程序 首先要保证通过JFLASH(我使用的J-Flash V7.88c版本)能够通过JLIN…

修改git在提交代码时的名称

在git中&#xff0c;如果想修改提交代码作者的名字&#xff0c;可以进行以下操作&#xff1a; 1.在桌面或者文件夹内右击鼠标&#xff0c;点开Git Bash here。 2.进入后&#xff0c;通过git config user.name 回车查看当前名称。 3.通过git config --global user.name "…

【Linux】深入解析Linux命名管道(FIFO):原理、实现与实战应用

本文承接上文匿名管道&#xff1a;【Linux】深度解析Linux进程间通信&#xff1a;匿名管道原理、实战与高频问题排查-CSDN博客 深入探讨Linux进程间通信&#xff08;IPC&#xff09;&#xff0c;以匿名管道为核心&#xff0c;详细阐述其通信目的、实现前提及机制。涵盖数据传输…

第十四届蓝桥杯省赛电子类单片机学习记录(客观题)

01.一个8位的DAC转换器&#xff0c;供电电压为3.3V&#xff0c;参考电压2.4V&#xff0c;其ILSB产生的输出电压增量是&#xff08;D&#xff09;V。 A. 0.0129 B. 0.0047 C. 0.0064 D. 0.0094 解析&#xff1a; ILSB&#xff08;最低有效位&#xff09;的电压增量计算公式…

vim的一般操作(分屏操作) 和 Makefile 和 gdb

目录 一. vim的基本概念 二. vim基础操作 2.1 插入模式 aio 2.2 [插入模式]切换至[正常模式] Esc 2.3[正常模式]切换至[末行模式] shift ; 2.4 替换模式 Shift R 2.5 视图&#xff08;可视&#xff09;模式 (可以快速 删除//注释 或者 增加//注释) ctrl v 三&…

Apache Shiro 统一化实现多端登录(PC端移动端)

Apache Shiro 是一个强大且易用的Java安全框架&#xff0c;提供了身份验证、授权、密码学和会话管理等功能。它被广泛用于保护各种类型的应用程序&#xff0c;包括Web应用、桌面应用、RESTful服务、移动端应用和大型企业级应用。 需求背景 在当今数字化浪潮的推动下&#xff…

NAT—地址转换(实战篇)

一、实验拓扑&#xff1a; 二、实验需求&#xff1a; 1.实现内网主机访问外网 2.实现外网客户端能够访问内网服务器 三、实验思路 1.配置NAT地址池实现内网地址转换成公网地址&#xff0c;实现内网主机能够访问外网。 2.配置NAT Sever实现公网地址映射内网服务器地址&…

用HTML和CSS生成炫光动画卡片

这个效果结合了渐变、旋转和悬浮效果的炫酷动画示例&#xff0c;使用HTML和CSS实现。 一、效果 二、实现 代码如下&#xff1a; <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport&quo…

FPGA_YOLO(三)

上一篇讲的是完全映射&#xff0c;也就是block中的所包含的所有的卷积以及归一&#xff0c;池化卷积 举例总共6个等都在pl侧进行处理&#xff08;写一个top 顶层 里面conv 1 bn1 relu1 pool1 conv1*1 conv 2 bn2 relu2 pool2 conv1*1 ....总共6个 &#xff09;&#xff0c;…

旅游CMS选型:WordPress、Joomla与Drupal对比

内容概要 在旅游行业数字化转型进程中&#xff0c;内容管理系统&#xff08;CMS&#xff09;的选择直接影响网站运营效率与用户体验。WordPress、Joomla和Drupal作为全球主流的开源CMS平台&#xff0c;其功能特性与行业适配性存在显著差异。本文将从旅游企业核心需求出发&…

全面适配iOS 18.4!通付盾加固产品全面升级,护航App安全上架

引言&#xff1a; 苹果官方新规落地&#xff01; 自2025年4月24日起&#xff0c;所有提交至App Store Connect的应用必须使用Xcode 16或更高版本构建&#xff0c;否则将面临审核驳回风险&#xff01;Beta版iOS 18.4、iPadOS 18.4现已推出&#xff0c;通付盾iOS加固产品率先完成…

一台电脑最多能接几个硬盘?

在使用电脑时&#xff0c;硬盘空间不够是许多用户都会遇到的问题。无论是摄影师、剪辑师等需要大量存储空间的专业人士&#xff0c;还是游戏玩家、数据备份爱好者&#xff0c;都可能希望通过增加硬盘来扩展存储容量。然而&#xff0c;一台电脑究竟最多能接多少个硬盘&#xff1…

【玩转全栈】---- Django 基于 Websocket 实现群聊(解决channel连接不了)

学习视频&#xff1a; 14-11 群聊&#xff08;一&#xff09;_哔哩哔哩_bilibili 目录 Websocket 连接不了&#xff1f; 收发数据 断开连接 完整代码 聊天室的实现 聊天室一 聊天室二 settings 配置 consumer 配置 多聊天室 Websocket 连接不了&#xff1f; 基于这篇博客&…

如何快速解决django报错:cx_Oracle.DatabaseError: ORA-00942: table or view does not exist

我们在使用django连接oracle进行编程时&#xff0c;使用model进行表映射对接oracle数据时&#xff0c;默认表名组成结构为&#xff1a;应用名_类名&#xff08;如&#xff1a;OracleModel_test&#xff09;&#xff0c;故即使我们库中存在表test&#xff0c;运行查询时候&#…

本地安装git

下载git 通过官网 下载 &#xff1a;Git - Downloading Package 若此页面无法直达&#xff0c;请删掉download/win尝试 2.双击运行安装 选择安装目录&#xff1a; 选择配置&#xff0c;默认不动 git安装目录名 默认即可 Git 的默认编辑器&#xff0c;建议使用默认的 Vim 编辑器…

小程序内表格合并功能实现—行合并

功能介绍&#xff1a;支付宝小程序手写表格实现行内合并&#xff0c;依据动态数据自动计算每次需求合并的值&#xff0c;本次记录行内合并&#xff0c;如果列内合并&#xff0c;同理即可实现 前端技术&#xff1a;grid布局 display&#xff1a;grid 先看实现效果: axml&…