【AIGC】2024-arXiv-Lumiere:视频生成的时空扩散模型

news2024/11/26 22:30:41

2024-arXiv-Lumiere: A Space-Time Diffusion Model for Video Generation

  • Lumiere:视频生成的时空扩散模型
    • 摘要
    • 1. 引言
    • 2. 相关工作
    • 3. Lumiere
      • 3.1 时空 U-Net (STUnet)
      • 3.2 空间超分辨率的多重扩散
    • 4. 应用
      • 4.1 风格化生成
      • 4.2 条件生成
    • 5. 评估和比较
      • 5.1 定性评估
      • 5.2 定量评估
    • 6. 结论
    • 7. 社会影响
    • 致谢
    • 参考文献

Lumiere:视频生成的时空扩散模型

作者:Omer Bar-Tal, Hila Chefer, Omer Tov, Charles Herrmann, Roni Paiss, Shiran Zada, Ariel Ephrat, Junhwa Hur, Guanghui Liu, Amit Raj, Yuanzhen Li, Michael Rubinstein, Tomer Michaeli, Oliver Wang, Deqing Sun, Tali Dekel, Inbar Mosseri
单位:Google Research, Weizmann Institute, Tel-Aviv University, Technion
论文地址:https://arxiv.org/abs/2401.12945

图 1

图 1:Lumiere 生成的示例结果,包括文本到视频生成(第一行)、图像到视频(第二行)、风格参考生成和视频修复(第三行;边界框表示修复掩码区域)。

摘要

 我们引入了 Lumiere,这是一种文本到视频的扩散模型,旨在合成能够描绘真实、多样且连贯的运动的视频,这是视频合成中的一项关键挑战。为此,我们引入了一种时空 U-Net 架构,该架构通过模型中的一次传递即可一次性生成视频的整个时间持续时间。这与现有的视频模型形成了鲜明对比,现有的视频模型先合成远距离关键帧,然后进行时间超分辨率处理,这种方法本质上很难实现全局时间一致性。通过部署空间和(重要的)时间上下采样并利用预先训练的文本到图像扩散模型,我们的模型学会通过在多个时空尺度上处理视频来直接生成全帧率、低分辨率的视频。我们展示了最先进的文本到视频生成结果,并表明我们的设计可以轻松促进广泛的内容创建任务和视频编辑应用,包括图像到视频、视频修复和风格化生成。

1. 引言

 近年来,图像生成模型取得了巨大进步。最先进的文本转图像(T2I)扩散模型现在能够合成符合复杂文本提示的高分辨率照片级逼真图像(Saharia et al., 2022b; Ramesh et al., 2022; Rombach et al., 2022),并允许广泛的图像编辑功能(Po et al., 2023)和其他下游用途。然而,由于运动带来的额外复杂性,训练大规模文本转视频(T2V)基础模型仍然是一个悬而未决的挑战。我们不仅对建模自然运动中的错误很敏感,而且增加的时间数据维度在内存和计算要求以及学习这种更复杂分布所需的训练数据规模方面带来了重大挑战。因此,虽然 T2V 模型正在迅速改进,但现有模型在视频时长、整体视觉质量以及可生成的真实运动程度方面仍然受到限制

 现有 T2V 模型中流行的方法是采用级联设计,其中基础模型生成远距离关键帧,随后的时间超分辨率(TSR)模型在非重叠段中生成关键帧之间的缺失数据。虽然内存效率高,但使用时间级联生成全局相干运动的能力本质上受到以下原因的限制:(i)基础模型生成一组积极子采样的关键帧,其中快速运动在时间上出现混叠,因此变得模糊。(ii)TSR 模块受限于固定的、较小的时间上下文窗口,因此无法在整个视频持续时间内一致地解决混叠模糊性(图 2 中合成周期性运动(例如步行)的情况)。(iii)级联训练方案通常会受到领域差距的影响,其中 TSR 模型在真实的下采样视频帧上进行训练,但在推理时用于插值生成的帧,从而累积误差。

图 2

图 2:**生成的视频中的时间一致性**。使用我们的模型和 ImagenVideo(Ho et al., 2022a)生成的周期性运动视频的代表性示例。我们应用 Lumiere 图像到视频生成,以 ImagenVideo 生成的视频的第一帧为条件,并可视化相应的 X-T 切片。ImagenVideo 难以生成全局一致的重复运动,因为它采用级联设计和时间超分辨率模块,无法在时间窗口内一致地解决混叠模糊问题。

 在这里,我们采用了一种不同的方法,引入了一个新的 T2V 扩散框架,该框架可以一次性生成视频的整个时间长度。我们通过使用时空 U-Net(STUNet)架构来实现这一点,该架构学习在空间和时间上对信号进行下采样,并在紧凑的时空表示中执行大部分计算。这种方法使我们能够使用单个基础模型以 16fps 生成 80 帧(或 5 秒,这比大多数媒体的平均镜头持续时间更长(Cutting & Candan, 2015)),与以前的工作相比,可以实现更全局一致的运动。令人惊讶的是,之前的 T2V 模型忽视了这种设计选择,这些模型遵循惯例,在架构中仅包含空间下采样和上采样操作,并在整个网络中保持固定的时间分辨率(Ho et al., 2022b;a; Singer et al., 2022; Ge et al., 2023; Blattmann et al., 2023b; Wang et al., 2023a; Guo et al., 2023; Zhang et al., 2023a; Girdhar et al., 2023; Po et al., 2023)。

 为了从 T2I 模型强大的生成先验中受益,我们遵循在预训练(和固定)的 T2I 模型之上构建 Lumiere 的趋势(Hong et al., 2022; Singer et al., 2022; Saharia et al., 2022b)。在我们的案例中,T2I 模型在像素空间中工作,由一个基础模型和一个空间超分辨率(SSR)级联组成。由于 SSR 网络以高空间分辨率运行,因此在内存要求方面,将其应用于整个视频持续时间是不可行的。常见的 SSR 解决方案使用时间窗口方法,将视频分成不重叠的片段并将结果拼接在一起。然而,这可能会导致窗口边界处的外观不一致(Girdhar et al., 2023)。我们建议将 Multidiffusion(Bar-Tal et al., 2023)扩展到时间域,这是一种在全景图像生成中实现全局连续性的方法,我们在时间窗口上计算空间超分辨率,并将结果聚合为整个视频片段的全局连贯解决方案

 我们展示了最先进的视频生成结果,并展示了如何轻松地将 Luimere 应用于大量视频内容创建任务,包括视频修复(图 7)、图像到视频生成(图 5)或生成符合给定风格图像的风格化视频(图 6)。最后,我们证明,一次生成完整视频使我们能够轻松调用现成的编辑方法来执行一致的编辑(图 9)。

2. 相关工作

文本到图像生成。大多数常见的文本到图像(T2I)生成方法都基于扩散模型(Sohl-Dickstein et al., 2015; Ho et al., 2020; Song et al., 2020)。其中,DALL-E2(Ramesh et al., 2022)和 Imagen(Saharia et al., 2022b)使用级联扩散模型实现了逼真的文本到图像生成,而稳定扩散(Rombach et al., 2022)在压缩的低维潜在空间中执行生成。一个有前途的研究方向是设计 T2I 扩散模型,该模型可以端到端生成高分辨率图像,而无需空间超分辨率级联系统或固定的预训练潜在空间(Hoogeboom et al., 2023; Gu et al., 2023; Chen, 2023)。在这里,我们设计了一个 T2V 模型,该模型可以一次生成完整的帧持续时间,从而避免了 T2V 模型中常见的时间级联。

文本到视频生成。最近,人们做出了大量努力,利用自回归 Transformer(例如,(Vil- legas et al., 2023; Wu et al., 2022; Hong et al., 2022; Kon- dratyuk et al., 2023))或扩散模型(例如,(Ho et al., 2022a;b; Gupta et al., 2023))在大规模数据集上训练大规模 T2V 模型。 T2V 生成的一种主要方法是通过在其架构中插入时间层来 “inflate(膨胀)” 预先训练的 T2I 模型,然后仅对这些模型或整个模型进行微调,以适应视频数据(Singer et al., 2022; Blattmann et al., 2023b; Girdhar et al., 2023; Ge et al., 2023; Yuan et al., 2024)。PYoCo(Ge et al., 2023)精心设计了视频噪声先验,并在微调用于视频生成的 T2I 模型方面获得了更好的性能。 VideoLDM(Blattmann et al., 2023b)和 Animate-Diff(Guo et al., 2023)对 StableDiffusion(Rombach et al., 2022)进行了扩充,并仅训练了新添加的时间层,表明它们可以与个性化 T2I 模型的权重相结合。有趣的是,现有扩充方案的普遍惯例是在整个网络中保持固定的时间分辨率,这限制了它们处理全长剪辑的能力。在这项工作中,我们设计了一种新的扩充方案,其中包括学习在空间和时间上对视频进行下采样,并在网络的压缩时空特征空间中执行大部分计算。我们扩展了 Imagen T2I 模型(aharia et al., 2022b),但是我们的架构贡献也可以用于潜在扩散,并且与扩散噪声调度器(Ge et al., 2023)或视频数据管理(Blattmann et al., 2023a)的可能改进正交。

3. Lumiere

 我们利用扩散概率模型作为我们的生成方法(Sohl-Dickstein et al., 2015; Croitoru et al., 2023a; Dhariwal & Nichol, 2021; Ho et al., 2020; Nichol & Dhariwal, 2021)。这些模型经过训练,通过一系列去噪步骤近似数据分布(在我们的例子中是视频分布)。从高斯 i.i.d. 噪声样本开始,扩散模型逐渐对其进行去噪,直到达到从近似目标分布中提取的干净样本。扩散模型可以通过合并其他引导信号(例如文本嵌入或空间条件(例如深度图))来学习条件分布(Dhariwal & Nichol, 2021; Saharia et al., 2022a; Croitoru et al., 2023b; Zhang et al., 2023b)。

 我们的框架由一个基础模型和一个空间超分辨率(SSR)模型组成。如图 3b 所示,我们的基础模型以粗略的空间分辨率生成完整的片段。我们的基础模型的输出使用时间感知的 SSR 模型进行空间上采样,从而产生高分辨率视频。接下来,我们将描述我们架构中的关键设计选择,并展示我们的框架对各种下游应用的适用性。

图 3

图 3:**Lumiere 管道**。我们说明了我们的管道以及与以前作品中采用的最常见方法的主要区别。(a)常见方法由生成远距离关键帧的基本模型和随后填充帧的时间超分辨率(TSR)模型的级联组成。在非重叠窗口中应用空间超分辨率(SSR)模型以获得高分辨率结果。(b)相比之下,我们框架中的基本模型一次处理所有帧,而无需级联 TSR 模型,从而使我们能够学习全局相干运动。为了获得高分辨率视频,我们在重叠窗口上应用 SSR 模型并利用 MultiDiffusion(Bar-Tal et al., 2023)将预测组合成一个连贯的结果。有关详细信息,请参阅第 3 节。

3.1 时空 U-Net (STUnet)

为了使我们的问题在计算上易于处理,我们建议使用时空 U-Net,它在空间和时间上对输入信号进行下采样,并在这种紧凑的时空表示上执行大部分计算。我们从 Cicek et al. (2016) 中汲取灵感,他们概括了 U-Net 架构(Ronneberger et al., 2015),以包括 3D 池化操作,以有效处理体积生物医学数据。

 我们的架构如图 4 所示。我们在 T2I 架构中交错时间块,并在每个预训练的空间调整大小模块后插入时间下采样和上采样模块 (图 4a)。时间块包括时间卷积(图 4b)和时间注意(图 4c)。具体来说,在除最粗略层之外的所有层级中,我们插入了分解的时空卷积(图 4b),与全 3D 卷积相比,这可以增加网络中的非线性,同时降低计算成本,并且与 1D 卷积相比,可以提高表现力(Meng et al., 2022)。由于时间注意力的计算要求与帧数成二次方关系,因此我们仅在最粗略的分辨率下合并时间注意力,其中包含视频的时空压缩表示。在低维特征图上进行操作使我们能够以有限的计算开销堆叠多个时间注意力块

 与(Blattmann et al., 2023b; Guo et al., 2023)类似,我们训练新添加的参数,并保持预训练的 T2I 的权重不变。值得注意的是,常见的膨胀方法确保在初始化时,T2V 模型等同于预训练的 T2I 模型,即将视频生成为独立图像样本的集合。然而,在我们的例子中,由于时间下采样和上采样模块,不可能满足这一特性。我们根据经验发现,初始化这些模块,使它们执行最近邻下采样和上采样操作,可以得到一个良好的起点(参见附录 B)。

图 3

图 4:**STUNet 架构**。我们将预训练的 T2I U-Net 架构(Ho et al., 2022a)“膨胀” 为时空 UNet(STUNet),在空间和时间上对视频进行下采样和上采样。(a)STUNet 激活图的说明;颜色表示由不同时间模块产生的特征:(b)基于卷积的块,由预训练的 T2I 层和后跟分解的时空卷积组成,(c)最粗 U-Net 级别的基于注意力的块,其中预训练的 T2I 层后跟时间注意力。由于视频表示在最粗的级别上被压缩,我们堆叠了几个时间注意力层,计算开销有限。有关详细信息,请参阅第 3.1 节。

3.2 空间超分辨率的多重扩散

由于内存限制,膨胀的 SSR 网络只能在视频的短片段上运行为了避免时间边界伪影,我们通过沿时间轴采用多重扩散(Bar-Tal et al., 2023)来实现时间段之间的平滑过渡。在每个生成步骤中,我们将嘈杂的输入视频 J ∈ R H × W × T × 3 J \in \mathbb{R}^{H \times W \times T \times 3} JRH×W×T×3 分成一组重叠片段 { J i } i = 1 N \left\{J_{i}\right\}_{i=1}^{N} {Ji}i=1N,其中 J i ∈ R H × W × T ′ × 3 J_{i} \in \mathbb{R}^{H \times W \times T^{\prime} \times 3} JiRH×W×T×3 是第 i i i 个片段,其时间持续时间为 T ′ < T T^{\prime}<T T<T。为了协调每个片段的 SSR 预测 { Φ ( J i ) } i = 1 N \left\{\Phi\left(J_{i}\right)\right\}_{i=1}^{N} {Φ(Ji)}i=1N,我们将去噪步骤的结果定义为优化问题的解

公式 1

 这个问题的解决方案是通过线性组合重叠窗口上的预测得出的。请参阅附录 C。

4. 应用

 由于没有 TSR 级联,因此更容易将 Lu-miere 扩展到下游应用。特别是,我们的模型为需要现成 T2V 模型的下游应用提供了直观的界面(例如,Meng et al. (2022); Poole et al. (2023); Gal et al. (2023))。我们通过使用 SDEdit(Meng et al., 2022)执行视频到视频编辑来演示此属性(见图 9)。接下来,我们将讨论许多此类应用,包括风格条件生成、图像到视频、修复和去除修复以及电影摄影。我们在图 6-9 中展示了示例帧,并请读者参阅我们网页上的补充材料(SM)以获取完整的视频结果。

图 5

图 5:**视频生成结果**。文本转视频和图像转视频生成的示例结果。每个示例下方均标有文本提示。对于图像转视频,最左边的帧作为条件提供给模型(参见第 4.2 节)。我们请读者参阅 SM 以获取完整视频结果。

4.1 风格化生成

 回想一下,我们只训练新添加的时间层,并保持预先训练的 T2I 权重不变。先前的研究表明,用针对特定风格定制的模型替换 T2I 权重可以生成具有所需风格的视频(Guo et al., 2023)。我们观察到这种简单的 “即插即用” 方法通常会导致视频失真或静态(参见 S M \rm SM SM),并假设这是由于时间层的输入分布与微调的空间层存在显着偏差造成的

 受基于 GAN 的插值方法(Pinkney & Adler, 2020)成功的启发,我们选择通过在微调的 T2I 权重 W s t y l e W_{\rm style} Wstyle 和原始 T2I 权重 W o r i g W_{\rm orig} Worig 之间进行线性插值来在风格和运动之间取得平衡。具体来说,我们构建插值权重为 W i n t e r p o l a t e = α ⋅ W s t y l e + ( 1 − α ) ⋅ W o r i g W_{\rm interpolate}=\alpha\cdot W_{\rm style}+\left(1-\alpha\right)\cdot W_{\rm orig} Winterpolate=αWstyle+(1α)Worig我们在实验中手动选择插值系数 α ∈ [ 0.5 ,   1 ] \alpha\in[0.5,\ 1] α[0.5, 1],以生成符合风格并描述合理运动的视频

 图 6 展示了来自(Sohn et al., 2023)的各种风格的样本结果。虽然 “水彩画” 等更逼真的风格会产生逼真的运动,但从矢量艺术风格衍生的其他不太逼真的空间先验会产生相应的独特非逼真的运动。例如,“线描” 风格产生的动画类似于铅笔笔触 “绘制” 所描述的场景,而 “卡通” 风格产生的内容会逐渐 “pops out(弹出)” 并构建场景(有关完整视频,请参阅 SM)。

图 6

图 6:**风格化生成**。给定驾驶风格图像及其对应的一组经过微调的文本到图像权重,我们在模型空间层的微调权重和预训练权重之间执行线性插值。我们展示了(A)矢量艺术风格和(B)现实风格的结果。结果证明了 Lumiere 能够创造性地匹配每种空间风格之前的不同运动(从左到右显示的帧)。有关详细信息,请参阅第 4.1 节。

4.2 条件生成

 与 Blattmann et al. (2023b); Wang et al. (2023b) 类似,我们将模型扩展到以其他输入信号 (例如图像或掩码) 为条件的视频生成。我们通过修改模型来实现这一点,除了噪声视频 J ∈ R T × H × W × 3 J\in \mathbb{R}^{T \times H \times W \times 3} JRT×H×W×3 和驾驶文本提示外,还将两个信号作为输入。具体来说,我们添加带掩码的条件视频 C ∈ R T × H × W × 3 C\in \mathbb{R}^{T \times H \times W \times 3} CRT×H×W×3 及其对应的二元掩码 M ∈ R T × H × W × 1 M\in \mathbb{R}^{T \times H \times W \times 1} MRT×H×W×1,这样模型的整体输入是连接张量 ⟨ J ,   C ,   M ⟩ ∈ R T × H × W × 7 ⟨J,\ C,\ M⟩\in \mathbb{R}^{T \times H \times W \times 7} J, C, MRT×H×W×7。我们将第一个卷积层的通道维度从 3 扩展到 7,以适应修改后的输入形状,并微调我们的基础 T2V 模型以根据 C ,   M C,\ M C, M J J J 进行去噪。在此微调过程中,我们将 J J J 视为训练视频的噪声版本,将 C C C 视为干净视频的掩码版本。这鼓励模型学习将 C C C 中未掩码的信息复制到输出视频中,同时仅对 masked(掩码)内容进行动画处理,正如所期望的那样

Image-to-Video。在这种情况下,视频的第一帧作为输入。调节信号 C C C 包含第一帧,后面是视频其余部分的空白帧。相应的掩码 M M M 包含第一帧的 1(即未掩蔽的内容)和视频其余部分的 0(即掩蔽的内容)。图 1 和图 5 显示了图像调节生成的样本结果(有关更多结果,请参阅 S M \rm SM SM)。我们的模型生成的视频从所需的第一帧开始,并在整个视频持续时间内表现出复杂的连贯运动

Inpainting。在这里,调节信号是用户提供的视频 C C C 和描述视频中要完成的区域的掩码 M M M。请注意,修复应用程序可用于对象替换/插入(图 1)以及局部编辑(图 7)。效果是无缝自然地完成掩蔽区域,内容由文本提示引导。我们请读者参阅 S M \rm SM SM 以获取更多修复和覆盖修复的示例。

图 7

图 7:**Inpainting**。使用 Lumiere 进行视频修复的示例。对于每个输入视频(每帧的左上角),我们使用我们的模型为视频的掩码区域制作动画。

Cinemagraphs。我们还考虑仅在特定用户提供的区域内对图像内容进行动画处理的应用。调节信号 C C C 是整个视频中重复的输入图像,而掩码 M M M 包含整个第一帧的 1(即第一帧未被掩码),对于其他帧,掩码仅包含用户提供区域之外的 1(即其他帧在我们希望制作动画的区域内被掩码)。我们在图 8 和 S M \rm SM SM 中提供了示例结果。由于第一帧保持未被掩码,因此鼓励动画内容保持调节图像的外观

图 8

图 8:**Cinemagraphs**。仅给定一张输入图像和一个蒙版(左),我们的方法就会生成一个视频,其中标记区域是动画,其余部分保持静态(右)。

5. 评估和比较

 我们在包含 30M 个视频及其文本标题的数据集上训练我们的 T2V 模型。视频长 80 帧,帧率为 16 fps(5 秒)。基础模型以 128×128 进行训练,SSR 输出 1024×1024 帧。我们在描述不同对象和场景的 109 个文本提示集合上评估我们的模型。提示列表包含先前作品使用的 91 个提示(Singer et al., 2022; Ho et al., 2022a; Blattmann et al., 2023b),其余由我们创建(参见附录 D)。此外,我们在 UCF101 数据集(Soomro et al., 2012)上采用了零样本评估协议,如第 5.2 节所述。

 我们在图 1 和图 5 中说明了文本到视频的生成。我们的方法可以生成高质量的视频,既可以描绘复杂的物体运动(例如图 5 中的行走宇航员),也可以描绘连贯的相机运动(例如图 1 中的汽车示例)。我们请读者参阅 S M \rm SM SM 以获取完整视频结果。

基线我们将我们的方法与著名的 T2V 扩散模型进行比较:(i)ImagenVideo(Ho et al., 2022a),它在像素空间中运行,由 7 个模型(一个基础模型、3 个 TSR 模型和 3 个 SSR 模型)的级联组成;(ii)AnimateDiff(Guo et al., 2023),(iii)StableVideoDiffusion(SVD)(Blattmann et al., 2023a),以及(iv)ZeroScope(Wang et al., 2023a),它们膨胀稳定扩散(Rombach et al., 2022)并在视频数据上进行训练;请注意,AnimateDiff 和 ZeroScope 分别仅输出 16 帧和 36 帧。SVD 仅发布了其图像到视频模型,该模型输出 25 帧并且不以文本为条件。此外,我们还与具有可用 API 的(v)Pika(Pika labs, 2023)和(vi)Gen-2(RunwayML, 2023)商业 T2V 模型进行了比较。此外,我们还与第 5.2 节中闭源的其他 T2V 模型进行了定量比较。

图 9

图 9:**通过 SDEdit 实现视频到视频**。我们的基础模型生成全帧速率视频,无需 TSR 级联,因此为下游应用程序提供了直观的界面。我们通过使用我们的模型应用 SDEdit(Meng et al., 2022)来演示此属性,从而实现一致的视频风格化。我们在第一行显示给定输入视频的几帧,并在下方显示相应的编辑帧。

5.1 定性评估

 我们在图 11 中对我们的模型和基线进行了定性比较。我们观察到 Gen-2(Run- wayML, 2023)和 Pika(Pika labs, 2023)表现出较高的每帧视觉质量;然而,它们的输出以非常有限的运动量为特征,通常导致近乎静态的视频。ImagenVideo(Ho et al., 2022a)产生了合理的运动量,但整体视觉质量较低。AnimateDiff(Guo et al., 2023)和 ZeroScope(Wang et al., 2023a)表现出明显的运动,但也容易出现视觉伪影。此外,它们生成的视频持续时间较短,具体分别为 2 秒和 3.6 秒。相比之下,我们的方法生成的 5 秒视频具有更高的运动幅度,同时保持了时间一致性和整体质量

5.2 定量评估

UCF101 上的零样本评估。遵循 Blattmann et al. (2023a) 和 Ge et al. (2023) 的评估协议,我们定量评估了我们在 UCF101 上进行零样本文本到视频生成的方法(Soomro et al., 2012)。表 1 报告了我们的方法和先前工作的 Fre ́chet 视频距离(FVD)(Un- terthiner et al., 2018)和初始分数(IS)(Salimans et al., 2016)。我们获得了具有竞争力的 FVD 和 IS 分数。但是,如先前研究中所讨论的(例如 Girdhar et al. (2023); Ho et al. (2022a); Chong & Forsyth (2020)),这些指标并不能忠实地反映人类的感知,并且可能会受到低级细节(Parmar et al., 2022)以及参考 UCF101 数据和 T2V 训练数据(Girdhar et al., 2023)之间的分布变化的显著影响。此外,该协议仅使用生成的视频中的 16 帧,因此无法捕捉长期运动。

表 1

表 1:UCF101 上的零样本文本到视频生成比较(Soomro et al., 2012)。我们的方法实现了具有竞争力的 FVD(Unterthiner et al., 2018)和 IS(Salimans et al., 2016)分数。请参阅第 5.2 节。

用户研究。我们采用了两种选择强制选择(2AFC)协议,就像以前的研究中使用的一样(Kolkin et al., 2019; Zhang et al., 2018; Blattmann et al., 2023a; Rombach et al., 2022)。在这个协议中,向参与者展示一对随机选择的视频:一个由我们的模型生成,另一个由其中一种基线方法生成。然后要求参与者选择他们认为在视觉质量和运动方面更好的视频。此外,还要求他们选择与目标文本提示更准确匹配的视频。我们利用 Amazon Mechanical Turk(AMT)平台为每个基线和问题收集了 ∼400 个用户判断。如图 10 所示,与所有基线相比,我们的方法更受用户的青睐,并且与文本提示的一致性更好。请注意,ZeroScope 和 AnimateDiff 分别仅生成 3.6 秒和 2 秒的视频,因此我们在与它们进行比较时剪辑我们的视频以匹配它们的持续时间。

图 10

图 10:**用户研究**。我们将我们的方法与每个基线进行比较。对于每个基线,我们报告了赞成我们的用户投票百分比(蓝色)和赞成基线的用户投票百分比(橙色)。我们的方法在文本转视频和图像转视频生成中都受到用户的青睐。参见第 5.2 节。

 我们进一步进行了一项用户研究,将我们的图像到视频模型(见第 4.2 节)与 Pika(Pika labs, 2023)、StableVideoDiffusion(SVD)(Blattmann et al., 2023a)和 Gen2(RunwayML, 2023)进行比较。请注意,SVD 图像到视频模型不以文本为条件,因此我们将调查重点放在视频质量上。如图 10 所示,与基线相比,我们的方法更受用户青睐。有关完整评估协议的详细描述,请参阅附录 D。

6. 结论

我们提出了一种新的文本到视频生成框架,利用预先训练的文本到图像扩散模型。我们发现,在学习全局相干运动方面,流行的方法是首先生成远距离关键帧,然后使用时间超分辨率模型的级联对其进行插值,这种方法存在固有的局限性。为了应对这一挑战,我们引入了一种时空 U-Net 架构设计,通过结合空间和时间的下采样和上采样模块,直接生成全帧速率视频剪辑。我们展示了最先进的生成结果,并展示了我们的方法适用于广泛的应用,包括图像到视频、视频修复和风格化生成

至于局限性,我们的方法并非旨在生成由多个镜头组成或涉及场景间转换的视频。生成此类内容仍然是未来研究的挑战。此外,我们在像素空间中运行的 T2I 模型之上建立了模型,因此涉及空间超分辨率模块来生成高分辨率图像。尽管如此,我们的设计原则适用于潜在视频扩散模型(Rombach et al., 2022),并且可以引发对文本到视频模型设计的进一步研究

7. 社会影响

 我们这项工作的主要目标是让新手用户能够以创造性和灵活的方式生成视觉内容。然而,使用我们的技术存在滥用创建虚假或有害内容的风险,我们认为开发和应用用于检测偏见和恶意用例的工具至关重要,以确保安全和公平使用。

致谢

 我们要感谢 Ronny Votel、Orly Liba、Hamid Mohammadi、April Lehman、Bryan Seybold、David Ross、Dan Goldman、Hartwig Adam、Xuhui Jia、Xiuye​​ Gu、Mehek Sharma、Rachel Hornung、Oran Lang、Jess Gallegos、William T. Freeman 和 David Salesin 的合作、有益的讨论、反馈和支持。我们感谢实验中使用的图像和视频的所有者分享他们的宝贵资产(可在我们网页上找到归属信息)。

参考文献

  1. Bar-Tal, O., Yariv, L., Lipman, Y., and Dekel, T. Multi- Diffusion: Fusing diffusion paths for controlled image generation. In ICML, 2023.
  2. Blattmann, A., Dockhorn, T., Kulal, S., Mendelevitch, D., Kilian, M., Lorenz, D., Levi, Y., English, Z., Voleti, V., Letts, A., et al. Stable video diffusion: Scaling latent video diffusion models to large datasets. arXiv preprint arXiv:2311.15127, 2023a.
  3. Blattmann, A., Rombach, R., Ling, H., Dockhorn, T., Kim, S. W., Fidler, S., and Kreis, K. Align your latents: High- resolution video synthesis with latent diffusion models. In CVPR, 2023b.
  4. Carreira, J. and Zisserman, A. Quo vadis, action recogni- tion? A new model and the kinetics dataset. In CVPR, pp. 6299–6308, 2017.
  5. Chen, T. On the importance of noise scheduling for diffusion models. arXiv preprint arXiv:2301.10972, 2023.
  6. Chong, M. J. and Forsyth, D. Effectively unbiased FID and Inception Score and where to find them. In CVPR, pp. 6070–6079, 2020.
  7. Cicek,O ̈.,Abdulkadir,A.,Lienkamp,S.S.,Brox,T.,and Ronneberger, O. 3d u-net: learning dense volumetric segmentation from sparse annotation. In MICCAI, pp. 424–432. Springer, 2016.
  8. Croitoru, F.-A., Hondru, V., Ionescu, R. T., and Shah, M. Diffusion models in vision: A survey. IEEE T. Pattern Anal. Mach. Intell., 2023a.
  9. Croitoru, F.-A., Hondru, V., Ionescu, R. T., and Shah, M. Diffusion models in vision: A survey. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023b.
  10. Cutting, J. E. and Candan, A. Shot durations, shot classes, and the increased pace of popular movies, 2015.
  11. Dhariwal, P. and Nichol, A. Diffusion models beat gans on image synthesis. NeurIPS, 2021.
  12. Gal, R., Vinker, Y., Alaluf, Y., Bermano, A. H., Cohen- Or, D., Shamir, A., and Chechik, G. Breathing life into sketches using text-to-video priors. arXiv preprint arXiv:2311.13608, 2023.
  13. Ge, S., Nah, S., Liu, G., Poon, T., Tao, A., Catanzaro, B., Jacobs, D., Huang, J.-B., Liu, M.-Y., and Balaji, Y. Preserve your own correlation: A noise prior for video diffusion models. In ICCV, pp. 22930–22941, 2023.
  14. Girdhar, R., Singh, M., Brown, A., Duval, Q., Azadi, S., Rambhatla, S. S., Shah, A., Yin, X., Parikh, D., and Misra, I. Emu Video: Factorizing text-to-video gen- eration by explicit image conditioning. arXiv preprint arXiv:2311.10709, 2023.
  15. Gu, J., Zhai, S., Zhang, Y., Susskind, J., and Jaitly, N. Matryoshka diffusion models. arXiv:2310.15111, 2023. arXiv preprint
  16. Guo, Y., Yang, C., Rao, A., Wang, Y., Qiao, Y., Lin, D., and Dai, B. AnimateDiff: Animate your personalized text-to-image diffusion models without specific tuning. arXiv preprint arXiv:2307.04725, 2023.
  17. Gupta, A., Yu, L., Sohn, K., Gu, X., Hahn, M., Fei-Fei, L., Essa, I., Jiang, L., and Lezama, J. Photorealistic video generation with diffusion models. arXiv preprint arXiv:2312.06662, 2023.
  18. He, K., Zhang, X., Ren, S., and Sun, J. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification. In Proceedings of the IEEE inter- national conference on computer vision, pp. 1026–1034, 2015.
  19. Ho, J., Jain, A., and Abbeel, P. Denoising diffusion proba- bilistic models. NeurIPS, 33:6840–6851, 2020.
  20. Ho, J., Chan, W., Saharia, C., Whang, J., Gao, R., Gritsenko, A., Kingma, D. P., Poole, B., Norouzi, M., Fleet, D. J., et al. Imagen video: High definition video generation with diffusion models. arXiv preprint arXiv:2210.02303, 2022a.
  21. Ho, J., Salimans, T., Gritsenko, A., Chan, W., Norouzi, M., and Fleet, D. J. Video diffusion models, 2022b.
  22. Hong, W., Ding, M., Zheng, W., Liu, X., and Tang, J. CogVideo: Large-scale pretraining for text-to- video generation via transformers. arXiv preprint arXiv:2205.15868, 2022.
  23. Hoogeboom, E., Heek, J., and Salimans, T. Simple diffusion: End-to-end diffusion for high resolution images. In ICML, 2023.
  24. Kolkin, N., Salavon, J., and Shakhnarovich, G. Style transfer by relaxed optimal transport and self-similarity. In CVPR, pp. 10051–10060, 2019.
  25. Kondratyuk, D., Yu, L., Gu, X., Lezama, J., Huang, J., Hornung, R., Adam, H., Akbari, H., Alon, Y., Birodkar, V., et al. VideoPoet: A large language model for zero- shot video generation. arXiv preprint arXiv:2312.14125, 2023.
  26. Meng, C., He, Y., Song, Y., Song, J., Wu, J., Zhu, J.-Y., and Ermon, S. SDEdit: Guided image synthesis and editing with stochastic differential equations. In ICLR, 2022.
  27. Nichol, A. Q. and Dhariwal, P. Improved denoising diffusion probabilistic models. In ICML, pp. 8162–8171, 2021.
  28. Parmar, G., Zhang, R., and Zhu, J.-Y. On aliased resizing and surprising subtleties in gan evaluation. In CVPR, 2022.
  29. Pika labs. https://www.pika.art/, 2023.
  30. Pinkney, J. N. and Adler, D. Resolution dependent GAN interpolation for controllable image synthesis between domains. In Machine Learning for Creativity and Design NeurIPS 2020 Workshop, 2020.
  31. Po, R., Yifan, W., Golyanik, V., Aberman, K., Barron, J. T., Bermano, A. H., Chan, E. R., Dekel, T., Holynski, A., Kanazawa, A., et al. State of the art on diffusion models for visual computing. arXiv preprint arXiv:2310.07204, 2023.
  32. Poole, B., Jain, A., Barron, J. T., and Mildenhall, B. Dream- Fusion: Text-to-3D using 2D diffusion. In ICLR, 2023.
  33. Ramesh, A., Dhariwal, P., Nichol, A., Chu, C., and Chen, M. Hierarchical text-conditional image generation with CLIP latents. arXiv preprint arXiv:2204.06125, 2022.
  34. Rombach, R., Blattmann, A., Lorenz, D., Esser, P., and Ommer, B. High-resolution image synthesis with latent diffusion models. In CVPR, pp. 10684–10695, 2022.
  35. Ronneberger, O., Fischer, P., and Brox, T. U-Net: Convolu- tional networks for biomedical image segmentation. In MICCAI, pp. 234–241. Springer, 2015.
  36. RunwayML. Gen-2. https://research.runwayml.com/gen2, 2023.
  37. Saharia, C., Chan, W., Chang, H., Lee, C., Ho, J., Salimans, T., Fleet, D., and Norouzi, M. Palette: Image-to-image diffusion models. In ACM SIGGRAPH 2022 Conference Proceedings, pp. 1–10, 2022a.
  38. Saharia, C., Chan, W., Saxena, S., Li, L., Whang, J., Denton, E. L., Ghasemipour, K., Gontijo Lopes, R., Karagol Ayan, B., Salimans, T., et al. Photorealistic text-to-image diffu- sion models with deep language understanding. NeurIPS, 35:36479–36494, 2022b.
  39. Saito, M., Saito, S., Koyama, M., and Kobayashi, S. Train sparsely, generate densely: Memory-efficient unsuper- vised training of high-resolution temporal GAN. Int. J. Comput. Vision, 128(10-11):2586–2606, 2020.
  40. Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Radford, A., and Chen, X. Improved techniques for training GANs. NIPS, 29, 2016.
  41. Singer, U., Polyak, A., Hayes, T., Yin, X., An, J., Zhang, S., Hu, Q., Yang, H., Ashual, O., Gafni, O., et al. Make-a- Video: Text-to-video generation without text-video data. arXiv preprint arXiv:2209.14792, 2022.
  42. Sohl-Dickstein, J., Weiss, E., Maheswaranathan, N., and Ganguli, S. Deep unsupervised learning using nonequilib- rium thermodynamics. In ICML, pp. 2256–2265, 2015.
  43. Sohn, K., Ruiz, N., Lee, K., Chin, D. C., Blok, I., Chang, H., Barber, J., Jiang, L., Entis, G., Li, Y., et al. StyleDrop: Text-to-image generation in any style. arXiv preprint arXiv:2306.00983, 2023.
  44. Song, Y., Sohl-Dickstein, J., Kingma, D. P., Kumar, A., Er- mon, S., and Poole, B. Score-based generative modeling through stochastic differential equations. arXiv preprint arXiv:2011.13456, 2020.
  45. Soomro, K., Zamir, A. R., and Shah, M. UCF101: A dataset of 101 human actions classes from videos in the wild. arXiv preprint arXiv:1212.0402, 2012.
  46. Tran, D., Wang, H., Torresani, L., Ray, J., LeCun, Y., and Paluri, M. A closer look at spatiotemporal convolutions for action recognition. In CVPR, pp. 6450–6459, 2018.
  47. Unterthiner, T., Van Steenkiste, S., Kurach, K., Marinier, R., Michalski, M., and Gelly, S. Towards accurate generative models of video: A new metric & challenges. arXiv preprint arXiv:1812.01717, 2018.
  48. Villegas, R., Babaeizadeh, M., Kindermans, P.-J., Moraldo, H., Zhang, H., Saffar, M. T., Castro, S., Kunze, J., and Erhan, D. Phenaki: Variable length video generation from open domain textual description. In ICLR, 2023.
  49. Wang, J., Yuan, H., Chen, D., Zhang, Y., Wang, X., and Zhang, S. Modelscope text-to-video technical report. arXiv preprint arXiv:2308.06571, 2023a.
  50. Wang, X., Yuan, H., Zhang, S., Chen, D., Wang, J., Zhang, Y., Shen, Y., Zhao, D., and Zhou, J. Videocomposer: Compositional video synthesis with motion controllabil- ity. arXiv preprint arXiv:2306.02018, 2023b.
  51. Wu, C., Liang, J., Ji, L., Yang, F., Fang, Y., Jiang, D., and Duan, N. Nu ̈wa: Visual synthesis pre-training for neural visual world creation. In ECCV, pp. 720–736. Springer, 2022.
  52. Yuan, X., Baek, J., Xu, K., Tov, O., and Fei, H. Inflation with diffusion: Efficient temporal adaptation for text-to- video super-resolution, 2024.
  53. Zhang, D. J., Wu, J. Z., Liu, J.-W., Zhao, R., Ran, L., Gu, Y., Gao, D., and Shou, M. Z. Show-1: Marrying pixel and latent diffusion models for text-to-video generation. arXiv preprint arXiv:2309.15818, 2023a.
  54. Zhang, L., Rao, A., and Agrawala, M. Adding conditional control to text-to-image diffusion models. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3836–3847, 2023b.
  55. Zhang, R., Isola, P., Efros, A. A., Shechtman, E., and Wang, O. The unreasonable effectiveness of deep features as a perceptual metric. In CVPR, pp. 586–595, 2018.
  56. Zhou, D., Wang, W., Yan, H., Lv, W., Zhu, Y., and Feng, J. MagicVideo: Efficient video generation with latent diffu- sion models. arXiv preprint arXiv:2211.11018, 2022.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2228146.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

没有对象来和我手撕红黑树吧

1. 红黑树的介绍 红黑树也是一种自平衡的二叉搜索树&#xff0c;在每一个节点增加了一个存储位来表示节点的颜色&#xff0c;可以是红色也可以是黑色&#xff0c;通过约束颜色来维持树的平衡&#xff0c;具有以下的性质&#xff1a; 每个节点不是红色就是黑色根节点为黑色如果…

【网络面试篇】TCP与UDP类

目录 一、综述 1. TCP与UDP的概念 2. 特点 3. 区别 4. 对应的使用场景 二、补充 1. 基础概念 &#xff08;1&#xff09;面向连接 &#xff08;2&#xff09;可靠的 &#xff08;3&#xff09;字节流 2. 相关问题 &#xff08;1&#xff09;TCP 和 UDP 可以同时绑定…

linux:回车换行+进度条+git理解与使用以及如何解决免密码push问题

目录 特殊符号 Linux小程序---进度条 1.\n和\r的理解 2.缓冲区 3.设计简单的倒计时 4.设计简单的进度条 git-版本控制器 1.理解什么是版本控制器? 2.git的使用 3.git的其他说明 总结上传过程 特殊符号 1.(取消显化) 的作用:执行指令,但指令本身不会显化; 举个例子:我…

智能家居10G雷达感应开关模块,飞睿智能uA级别低功耗、超高灵敏度,瞬间响应快

在当今科技飞速发展的时代&#xff0c;智能家居已经逐渐成为人们生活中不可或缺的一部分。从智能灯光控制到智能家电的联动&#xff0c;每一个细节都在为我们的生活带来便利和舒适。而在众多智能家居产品中&#xff0c;10G 雷达感应开关模块以其独特的优势&#xff0c;正逐渐成…

什么品牌的护眼台灯比较好?五款目前比较好用的护眼台灯

在当今社会&#xff0c;近视已成为一种普遍现象&#xff0c;其背后的原因复杂多样。除了部分由遗传因素导致外&#xff0c;不良的用眼习惯和不适宜的照明环境也是不可忽视的重要因素。长时间盯着电子屏幕、阅读时光线过强或过弱、坐姿不正等&#xff0c;都可能给眼睛带来额外的…

redis详细教程(4.GEO,bitfield,Stream)

GEO Redis GEO 是 Redis 数据库中的一个功能模块&#xff0c;自 Redis 3.2 版本开始引入&#xff0c;专门用于处理地理位置信息。这个模块使得 Redis 能够存储并查询地理坐标&#xff0c;非常适合用于需要地理位置数据的应用&#xff0c;如实时位置查询、地理围栏、距离计算等…

Kafka 基础入门

文章内容是学习过程中的知识总结&#xff0c;如有纰漏&#xff0c;欢迎指正 文章目录 前言 1. 核心概念 1.1 Producer 1.2 broker 1.3 consumer 1.4 zookeeper 1.5 controller 1.6 Cluster 2. 逻辑组件 2.1 Topic 2.2 Partition 2.3 Replication 2.4 leader & follower 3. …

苹果生态的机器学习和同态加密

1. 引言 Apple认为隐私是一项基本人权。其保护用户隐私的工作遵循一系列隐私原则&#xff0c;其中一项原则是优先使用设备上的处理。通过在用户设备上本地执行计算&#xff0c;有助于最大限度地减少与 Apple 或其他实体共享的数据量。当然&#xff0c;用户可以请求由机器学习 …

甲骨文云免费20G对象存储挂载到VPS

准备条件 1.一个获取到免费vps的甲骨文账号Cloud Infrastructure | Oracle 2.一台需要挂载的VPS跳转中 - 有云短链接 3.用到的开源项目https://github.com/s3fs-fuse/s3fs-fuse 一、甲骨文账号端操作 1.1获取存储桶名称和名称空间 进入甲骨文账号,依次如图打开-存储-存储桶…

开源的GPT-4o模型使用指南,Mini-Omni2集视觉、语音和双工能力于一体的

1. Mini-Omni2 是什么&#xff1f; Mini-Omni2 是一个开源的多模态语言模型&#xff0c;旨在模拟 GPT-4o 的视觉、语音和文本处理能力。它能够理解和生成视觉、听觉和文本内容&#xff0c;并支持实时的语音输出和灵活的双工交互。 Mini-Omni2 由清华大学和 Inspirai 的研究人…

【C++】string 类深度解析:探秘字符串操作的核心

快来参与讨论&#x1f4ac;&#xff0c;点赞&#x1f44d;、收藏⭐、分享&#x1f4e4;&#xff0c;共创活力社区。 目录 &#x1f4af;前言 &#x1f4af;为什么要学习 string 类 &#xff08;一&#xff09;简化操作 &#xff08;二&#xff09;确保安全 &#xff08;三…

卷积神经网络实验三:模型优化(1)

作者有话说&#xff1a; 这篇文章写的还是比混乱的。因为本人也是第一次做这样的尝试&#xff0c;虽然接触深度学习有一年了&#xff0c;但是对于模型的优化仅仅是局限于理论上。通过这一次的实验&#xff0c;我对于模型的理解也更深了几分。我不期望这篇文章能帮你能解决多大问…

clickhouse运维篇(三):生产环境一键生成配置并快速部署ck集群

前提条件&#xff1a;先了解集群搭建流程是什么样&#xff0c;需要改哪些配置&#xff0c;有哪些环境&#xff0c;这个文章目的是简化部署。 clickhouse运维篇&#xff08;一&#xff09;&#xff1a;docker-compose 快速部署clickhouse集群 clickhouse运维篇&#xff08;二&am…

嵌入式浏览器 -- Chromium VS Firefox

嵌入式浏览器概念 嵌入式浏览器是嵌入式系统中的核心组件之一&#xff0c;用于为设备提供网络访问能力和内容显示功能。与传统PC浏览器相比&#xff0c;嵌入式浏览器更加注重性能优化和资源效率&#xff0c;同时确保核心功能可用&#xff0c;如HTML渲染、JavaScript支持和多媒…

CSP-J2024入门级T3:小木棍

题目链接 CSP-J2024T3:小木棍 题目描述 小 S 喜欢收集小木棍。在收集了 n n n 根长度相等的小木棍之后,他闲来无事,便用它们拼起了数字。用小木棍拼每种数字的方法如下图所示。 现在小 S 希望拼出一个正整数,满足如下条件: 拼出这个数恰好使用

Ubuntu 20.04 安装 OpenCV 和 OpenCV_contrib 教程

Ubuntu 20.04 安装 OpenCV 和 OpenCV_contrib 教程 Ubuntu 20.04 安装 OpenCV 和 OpenCV_contrib 教程前言 OpenCV概述核心功能优势特点应用领域安装与使用 OpenCV_contrib概述核心功能具体模块 安装与使用一、准备工作二、下载OpenCV和OpenCV_contrib三、编译和安装OpenCV四、…

shodan5,参数使用,批量查找Mongodb未授权登录,jenkins批量挖掘

查找美国安全局漏洞 nww.nsa.gov&#xff08;美国安全局官方网站) net参数使用 搜索指定的ip网段 shodan search --limit 10 --fields ip_str,port net:208.88.84.0/24 (老美国家安全局的一个网段)可能直接访问不太行&#xff0c;可以使用host参数&#xff0c;得到域名再去…

nrm的使用

在安装nrm之前&#xff0c;要先完成node.js的安装。 1、nrm的介绍 ‌nrm&#xff08;npm registry manager&#xff09;是一个npm源管理器&#xff0c;允许用户在不同npm源之间快速切换。 关于npm和nvm的介绍&#xff0c;详见文章nvm的使用-CSDN博客。 解释&#xff1a;比如…

图片懒加载(自定义指令)

----------------------------------------------------------- 图片懒加载自定义指令使用mock模拟随机图片列表组件如下&#xff08;主要内容&#xff09;&#xff1a;配置自定义指令 图片懒加载 实现思路 使用自定义指令实现通用图片懒加载&#xff08;在图片到达视口内时再…

socket编程---UDP

目录 一、socket 二、socket接口 1.流程原理 2.代码 前言 提示&#xff1a;这里可以添加本文要记录的大概内容&#xff1a; socket编程又称套接字编程&#xff0c;指进行网络通信程序的编写 提示&#xff1a;以下是本篇文章正文内容&#xff0c;下面案例可供参考 一、soc…