【深度学习】AIGC ,ControlNet 论文,原理,训练,部署,实战,教程(一)

news2024/9/21 19:19:54

论文:https://arxiv.53yu.com/pdf/2302.05543
代码:https://github.com/lllyasviel/ControlNet

得分几个博客完成这个事情的记录了,此篇是第一篇,摘录了一些论文内容。ControlNet 的原理极为朴实无华(对每个block添加zero conv连接),但却非常有效地减少了训练资源和训练时间,针对不同领域任务的训练形成自己的style。论文最后给出了很多值得思考的图例。

文章目录

  • 原论文摘录
    • Introduction
    • HyperNetwork and Neural Network Structure
    • Diffusion Probabilistic Model
    • text-to-image generating tasks
    • Personalization,Customization, and Control of Pretrained Diffusion Model
    • Image-to-Image Translation
    • ControlNet
    • ControlNet in Image Diffusion Model
    • Training
    • Improved Training
    • Implementation
    • Experiment
    • Ablation Study 消融实验
    • Comparison of pre-trained models
    • More Applications
    • Limitation

原论文摘录

Introduction

我们提出了一个神经网络结构,ControlNet,来控制预训练的大型扩散模型,以支持额外的输入条件。ControlNet以端到端方式学习特定于任务的条件,即使训练数据集很小(< 50k),学习也是鲁棒的。此外,训练ControlNet与微调扩散模型一样快,并且该模型可以在个人设备上训练。
或者,如果有强大的计算集群可用,则模型可以扩展到大量(数百万到数十亿)数据。我们报告说,像稳定扩散这样的大型扩散模型可以用ControlNets来增强,以实现边缘图、分割图、关键点等条件输入。这可以丰富控制大型扩散模型的方法,并进一步促进相关应用。

ControlNet,一个端到端神经网络架构,它控制大型图像扩散模型(如Stable diffusion)来学习特定于任务的输入条件。ControlNet将大型扩散模型的权重克隆为“trainable copy”和“locked copy”:locked copy保留了从数十亿张图像中学习到的网络能力,而可训练副本则在特定任务数据集上进行训练,以学习条件控制。可训练和锁定的神经网络块与一种称为“零卷积”的独特类型的卷积层相连,其中卷积权以学习的方式从零逐步增长到优化参数。

由于保留了production-ready weights,因此训练在不同规模的数据集上具有鲁棒性。

由于零卷积不会向深度特征中添加新的噪声,与从头开始训练新层相比,训练与微调扩散模型一样快。

我们用不同条件的各种数据集训练几个ControlNets,例如,Canny边缘,Hough线,用户涂鸦,人类关键点,分割地图,形状法线,深度等。我们还用小数据集(样本少于50k甚至1k)和大数据集(数百万样本)对ControlNets进行了实验。我们还表明,在某些任务中,如深度到图像,在个人计算机(一台Nvidia RTX 3090TI)上训练ControlNets可以获得与在具有tb GPU内存和数千个GPU小时的大型计算集群上训练的商业模型具有竞争力的结果。

HyperNetwork and Neural Network Structure

ControlNet使用一种特殊类型的卷积层,称为“零卷积”。 早期的神经网络研究[31,47,32]对网络权值的初始化进行了广泛的讨论,包括用高斯分布初始化权值的合理性以及用零初始化权值可能带来的风险。最近,[37]讨论了一种在扩散模型中缩放多个卷积层的初始权值以改进训练的方法,该方法与零卷积的思想有相似之处(它们的代码包含一个称为“zero_module”的函数)。在ProGAN[21]和StyleGAN[22]以及Noise2Noise[33]和[65]中也讨论了对初始卷积权值的操作。Stability的模型卡片[55]也提到了在神经层中使用零权重。

Diffusion Probabilistic Model

为了减少训练扩散模型所需的计算资源,基于latent image的思想[11],提出了 Latent Diffusion Model(LDM)[44]方法,并进一步扩展为Stable Diffusion 。

text-to-image generating tasks

Diffusion models可以应用于text-to-image generating tasks,以获得state-of-the-art image generating results。这通常是通过使用类似于CLIP等预训练语言模型将文本输入编码为latent vectors来实现的[41]。例如,Glide[38]是一种支持图像生成和编辑的text-guided diffusion models。Disco Diffusion是一个剪辑引导的实现[9]来处理文本提示。Stable Diffusion是latent diffusion的大规模实现[44],以实现文本到图像的生成。 Imagen[49]是一种文本到图像的结构,它不使用潜在图像,直接使用金字塔结构扩散像素。

Personalization,Customization, and Control of Pretrained Diffusion Model

由于 state-of-the-art image diffusion models 以文本到图像的方法为主,因此增强对 diffusion model 控制的最直接的方法通常是 text-guided [38,24,2,3,23,43,16]。这种类型的控制也可以通过操纵CLIP特征来实现[43]。

图像扩散过程本身可以提供一些功能来实现颜色级别的细节变化[35](Stable diffusion社区称之为img2img)。图像扩散算法自然支持inpainting,作为控制结果的重要方法[43,2]。

本文提出了Textual Inversion[12]和DreamBooth[46],利用一小组具有相同主题或对象的图像来定制(或个性化)生成结果中的内容。

Image-to-Image Translation

我们想指出的是,尽管ControlNet和Image-to-image translation可能有几个重叠的应用程序,但它们的动机本质上是不同的。

Image-to-image translation 的目标是学习不同领域图像之间的映射,而ControlNet的目标是控制具有特定任务条件的diffusion model。

Pix2Pix[20]提出了 image-to-image translation的概念,早期的方法主要是条件生成神经网络(generative neural networks)[20,69,60,39,8,63,68]。在 transformers and Vision Transformers (ViTs)普及之后,使用自回归方法(autoregressive methods)取得了成功的结果[42,11,7]。一些研究也表明,multi-model methods 可以从various translation tasks 中学习到一个robust generator [64,29,19,40]。

我们讨论了目前图像到图像翻译中最强的方法。Taming Transformer[11]是一个vision transformer ,具有generate images and perform image-to-image translations。Palette[48]是一个unified diffusion-based image-to-image translation framework。PITI[59]是一种diffusion-based image-to-image translation method ,它利用 large-scale pretraining 来提高生成结果的质量。在特定领域,如sketch-guided diffusion,[58]是一种基于优化的方法,可以操纵扩散过程。 这些方法在实验中得到了验证。

ControlNet

ControlNet操纵network block的输入条件,从而进一步控制整个神经网络的整体行为。这里的“network block”是指将一组神经层组合在一起作为构建神经网络的常用单元,如“resnet”块、“convn -bn-relu”块、multi-head attention block、transformer block等。

在这里插入图片描述
可以对照下图(b)查看公式(2)。
在这里插入图片描述
由于Zero Conv初始化的时候是0,所以ContorlNet在优化器Back Propagation之前,和原始的Stable Diffusion是一样的。
在这里插入图片描述

进一步来说,只要输入特征不是0,那么权重W在第一次BP之后就不会是0。

在这里插入图片描述
其中得到非零梯度,神经网络开始学习。这样,零卷积就成为一种独特的连接层,以一种学习的方式从零逐步到optimized parameters。

下图也解释了这个过程:
在这里插入图片描述

ControlNet in Image Diffusion Model

我们以Stable Diffusion[44]为例,介绍了使用ControlNet控制具有特定任务条件的大型扩散模型的方法。ControlNet的思想也可以扩展到其他的diffusion model。

Stable Diffusion是一个大型 text-to-image diffusion model ,训练了数十亿张图像。该模型本质上是一个带有encoder, a middle block, and a skip-connected decoder的U-net。encoder and decoder 都有12个块,整个模型有25个块(包括中间块)。

在这些块中,8个块是下采样或上采样卷积层。17个块是主块,每个块包含4个 resnet layers和2个Vision Transformers (ViTs)。每个Vit包含几个cross-attention and/or self-attention mechanisms。文本采用OpenAI公司的CLIP模型进行编码,扩散时间步长(diffusion time steps)采用位置编码(positional encoding)。

为了匹配Stable Diffusion的latent images大小,ControlNet采用了一个小的网络完成此事:
在这里插入图片描述
在图3中,可见ControlNet控制U-net的每个层级块,但由于原始权重是锁定的,所以计算消耗很少,23%显存、34%训练时间就可以去训练Stable Diffusion。

在这里插入图片描述
在这里插入图片描述

Training

Image diffusion models 学习逐步去噪图像以生成样本。去噪可以在pixel space或从训练数据编码的“latent” space 中进行。Stable Diffusion使用latent images作为 training domain。在这种情况下,术语“image”、“pixel”、“denoising”都是指“感知潜在空间(perceptual latent space)”中的相应概念[44]。

在训练过程中,我们随机将50%的文本提示替换为空字符串。这有助于ControlNet从输入条件图中识别语义内容的能力,例如,Canny边缘图或人类涂鸦等。这主要是因为当SD模型中提示符不可见时,编码器倾向于从输入控制映射中学习更多的语义,作为提示符的替代品。

在这里插入图片描述

Improved Training

我们讨论了几种改进ControlNets训练的策略,特别是在计算设备非常有限(例如,在笔记本电脑上)或非常强大(例如,在具有大规模gpu可用的计算集群上)的极端情况下。在我们的实验中,如果使用了其中任何一种策略,我们将在实验设置中提及。

Small-Scale Training 在计算设备有限的情况下,我们发现局部断开控制网与稳定扩散之间的连接可以加快收敛速度。默认情况下,我们将ControlNet连接到“SD中间块”和“SD解码器块1,2,3,4”,如图3所示。我们发现,断开到解码器1、2、3、4的链接,只连接中间块,可以将训练速度提高约1.6倍(在RTX 3070TI笔记本电脑GPU上测试)。当模型显示出结果与条件之间的合理关联时,断开的环节可以在继续训练中重新连接起来,以方便精确控制。

Large-Scale Training 大规模训练是指同时拥有强大的计算集群(至少8个Nvidia A100 80G或同等)和大型数据集(至少100万对训练图像)。这通常适用于数据容易获得的任务,例如,Canny检测到的边缘地图。在这种情况下,由于过度拟合的风险相对较低,我们可以首先训练ControlNets进行足够多的迭代(通常超过50k步),然后解锁稳定扩散的所有权重,并将整个模型作为一个整体进行联合训练。这将导致更具体问题的模型。

Implementation

我们提出了几种基于不同图像条件的ControlNets实现,以各种方式控制大型扩散模型。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Experiment

本文的所有结果都是在CFG-scale为9.0时获得的。采样器是DDIM。我们默认使用20 steps。我们使用四种类型的prompts来测试模型:

(1)No prompt:我们使用空字符串" "作为prompts。

(2)Default prompt:由于Stable diffusion本质上是通过prompts进行训练的,因此空字符串可能是模型的意外输入,如果不提供提示,SD倾向于生成随机的纹理映射。更好的设置是使用无意义的提示,如“an image”, “a nice image”, “a professional image”等。在我们的设置中,我们使用“a professional, detailed, high-quality image” 作为Default prompt。

(3)Automatic prompt:为了测试the state-of-the-art maximized quality of a fully automatic pipeline,我们还尝试使用自动图像字幕方法(如BLIP[34]),to generate prompts using the results obtained by “default prompt” mode。We use the generated prompt to diffusion again。

(4)User prompt: Users give the prompts.

Ablation Study 消融实验

图20显示了与未使用ControlNet训练的模型的比较。该模型使用与Stability的深度到图像模型完全相同的方法进行训练(向SD添加一个通道并继续训练)。
在这里插入图片描述

图21我们想指出一种“突然收敛现象(sudden convergence phenomenon)”,即模型突然能够遵循输入条件。当使用1e-5作为学习率时,这种情况可能发生在从5000到10000步的训练过程中。

在这里插入图片描述

图22显示了使用不同数据集规模训练的基于canny -edge的ControlNets。

PS 看起来依旧是数据量越多,效果越好。

在这里插入图片描述

Comparison of pre-trained models

在这里插入图片描述

More Applications

从图16可以看出,如果对扩散过程进行屏蔽,则模型可以用于pen-based的图像编辑。
在这里插入图片描述

从图26可以看出,当对象比较简单时,模型可以实现对细节的比较精确的控制。

在这里插入图片描述

从图27可以看出,当ControlNet只应用于50%的扩散迭代时,用户可以得到不遵循输入形状的结果。

在这里插入图片描述

Limitation

从图28可以看出,当语义解释错误时,模型可能难以生成正确的内容。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/728630.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

软件设计模式与体系结构-设计模式-行为型软件设计模式-状态模式

五、状态模式 概念 与策略模式类似&#xff0c;状态模式将不同状态下的行为封装在不同的类中&#xff0c;每个类代表一个状态 状态模式的组成 Context&#xff1a;定义了与客户程序的接口&#xff0c;它保持了一个concreteState的代表现在状态的实例State&#xff1a;定义了…

怎么用转转大师工具旋转PDF文件页面

有时候我们会在网上下载一下PDF格式文件&#xff0c;下载的PDF文件中可能会出现页面倒过来的情况&#xff0c;遇到这种情况我们需要先将PDF文件旋转到正确的角度才能继续阅读使用&#xff0c;那么有哪些方法可以快速旋转PDF页面呢&#xff1f; 可以使用转转大师工具快速旋转PD…

【知识产权-01】知识产权建设之专利那些事

在当今信息爆炸的时代&#xff0c;知识产权的保护变得尤为重要。专利是知识产权的一种重要形式&#xff0c;它是创新和发明的重要保护手段。几张图片向大家介绍专利的审查流程、不同方式的审查周期、专利检索以及技术交底书的基本知识&#xff0c;方便大家查阅。 审查流程 审查…

JavaWeb——HTTPS的加密流程

目录 一、使用对称加密 1、定义 2、加密/解密过程 二、使用非对称加密 1、对称加密弱点 2、非对称加密过程 &#xff08;1&#xff09;、定义 &#xff08;2&#xff09;、加密/解密过程 三、使用证书加密 1、非对称加密弱点 2、使用证书加密过程 &#xff08;1&am…

k8s概念介绍

目录 一 整体架构和组件基本概念 1.1 组件 1.1.1 master节点 1.1.2 node节点 1.1.3 附加组件 二 资源和对象 2.1 资源分类 2.2 元数据资源 Horizontal Pod Autoscaler&#xff08;HPA&#xff09; PodTemplate LimitRange 2.3 集群资源 namespace Node ClusterRo…

树状数组详解

问题引入 为了做到对区间的快速查询&#xff0c;可能你会想到前缀和来优化这个查询&#xff0c;这样区间查询的话是O(1)的复杂度。但如果发生了单点更新&#xff0c;在之后的所有前缀和都要更新&#xff0c;修改的时间复杂度是O(n)&#xff0c;并不能解决问题。 线段树 为了避…

自动化构建工具(Makefile/make)

什么是自动化构建工具 俗话说,会不会写Makefile可以从侧面表达出一个人是否具有完成大型项目的能力。试想一下&#xff0c;一个工程里面有数不尽的源文件&#xff0c;按照各自的&#xff0c;模块&#xff0c;类型放在不同的目录中&#xff0c;如果我要要去编译这个源文件&…

【真题解析】系统集成项目管理工程师 2021 年上半年真题卷(案例分析)

本文为系统集成项目管理工程师考试(软考) 2021 年上半年真题&#xff08;全国卷&#xff09;&#xff0c;包含答案与详细解析。考试共分为两科&#xff0c;成绩均 ≥45 即可通过考试&#xff1a; 综合知识&#xff08;选择题 75 道&#xff0c;75分&#xff09;案例分析&#x…

FEW-SHOT CLASS INCREMENTAL LEARNING

Few-shot class-incremental learning (FSCIL) Neural Collaps有以下四个性质&#xff1a; 在第t个session的时候优化 其中&#xff0c;

研究人员发现新的Linux内核 “StackRot “特权升级漏洞

报道称&#xff0c;Linux内核中出现了一个新的安全漏洞&#xff0c;可能允许用户在目标主机上获得更高的权限。 该漏洞被称为StackRot&#xff08;CVE-2023-3269&#xff0c;CVSS评分&#xff1a;7.8&#xff09;&#xff0c;影响Linux 6.1至6.4版本。迄今为止&#xff0c;没有…

Docker容器内无法解析域名:Temporary failure in name resolution

解决办法 说明&#xff1a;我的操作环境为CentOS 8&#xff0c;与CentOS 7使用命令完全一致。其他不同Linux系统版本命令可能会有所不同&#xff0c;请根据自己的系统版本使用对应命令&#xff0c;直接百度相关操作即可。 1. 检查主机网络设置。 1. 检查主机网络设置 cat /pr…

什么是数字化转型?企业数字化转型包括哪些方面?

什么是数字化转型&#xff1f;企业数字化转型包括哪些方面&#xff1f; 什么是数字化转型&#xff1f; 百度百科对于数字化转型的定义如下—— 数字化转型&#xff08;Digital transformation&#xff09;是建立在数字化转换&#xff08;Digitization&#xff09;、数字化升级…

98、基于STM32单片机指纹考勤机指纹识别签到系统设计(程序+原理图+PCB源文件+任务书+参考论文+开题报告+元器件清单等)

单片机类型选择 方案一&#xff1a;可以使用现在比较主流的单片机STC89C5单片机进行数据处理。这款单片机具有的特点是内存和51的单片机相比多了4KB内存&#xff0c;但是价格和51单片机一样。并且支持数据串行下载和调试助手。此款单片机是有ATMEL公司生产&#xff0c;可用5V电…

IPC 进程间通讯 (2)

目录 进程间通信的概念 进程间通信的目的 进程间通信的本质 进程间通信的分类 什么是管道 匿名管道 命名管道 system V共享内存 System V消息队列 System V信号量 system V IPC联系 进程间通信的概念 进程间通信简称IPC&#xff08;Interprocess communication&…

赛效:怎么一键人像抠图

1&#xff1a;在人像抠图页面&#xff0c;点击下方的“本地上传”&#xff0c;将本地人像图片添加上去。 2&#xff1a;人像图上传成功后自动进入抠图页面&#xff0c;我们点击下方的“下载图片”&#xff0c;可将抠图后的人像图下载到电脑本地。 3&#xff1a;图片下载成功后&…

OpenCV对图片进行缩放处理

在下面的代码中,我会为你优化和解释这段程序: #include <opencv2/opencv.hpp>using namespace cv;int main() {// 读取源图片Mat srcImage = imread("../51_resize.jpg"

OpenCV使用pyrUp对图片进行放大处理

这段代码使用OpenCV读取图片,然后使用pyrUp函数将图片放大一倍,并显示原图和放大后的图像。以下是优化和注释版本的代码: #include <opencv2/opencv.hpp> #include <opencv2/imgproc/imgproc.hpp>using namespace cv;int main() {

亚马逊在日本增设11个配送设施,加强次日达物流网络

据外媒报道&#xff0c;亚马逊计划今年在日本开设11个新的配送设施&#xff0c;以强化其次日达送货服务的范围和提高用户购物的便利性。目前&#xff0c;该电商巨头在日本拥有超过50个配送设施。 亚马逊已经完成了2个&#xff0c;还有9个仍在建造中。该公司表示&#xff0c;它…

C语言柔性数组详解

柔性数组 C99中&#xff0c;结构体中最后一个元素允许是未知大小的数组&#xff0c;这叫做 【柔性数组】成员。 例1&#xff1a; struct node {int i;int num[]; // 柔性数组成员 };例2&#xff1a; struct node {int i;int num[0]; // 柔性数组成员 };柔性数组的特点&…

CMake 笔记

CMake 笔记 CMake 笔记 基础项目多个目录创建项目 链接库 用到的指令实验 使用自定义库 用到的指令实验 指定 C 标准CMake常见变量名 基础项目 实现一个CMakeLists.txt最简单是以下三步&#xff1a; # 最低 CMake 版本要求&#xff1a;指定项目所需的最低 CMake 版本 cma…