原文链接: Video generation models as world simulators (openai.com)
摘要:
我们探索了在视频数据上大规模训练生成模型。具体来说,我们在可变片长、分辨率和纵横比的视频和图像上联合训练文本条件扩散模型text-conditional diffusion models。我们利用一种 transformer 架构,该架构在视频和图像潜在代码的时空补丁 spacetime patches上运行。我们最大的型号 Sora 能够生成一分钟的高保真视频。我们的结果表明,扩展视频生成模型scaling video generation models是构建物理世界通用模拟器的一条有前途的途径。
本技术报告重点介绍
(1)我们将所有类型的视觉数据转换为统一表示的方法,以实现生成模型的大规模训练,以及(2)对Sora的功能和局限性进行定性评估。本报告未包括模型和实施细节。
许多先前的工作已经研究了使用各种方法对视频数据进行生成建模,包括循环网络、生成对抗网络,自回归变压器,和扩散模型。这些作品通常集中在一小部分视觉数据、较短的视频或固定大小的视频上。Sora 是一种通用的视觉数据模型,它可以生成跨越不同片长、纵横比和分辨率的视频和图像,最多可生成一整分钟的高清视频。
将可视化数据转换为补丁Turning visual data into patches
我们从大型语言模型LLM中汲取灵感,这些模型通过对互联网规模的数据进行训练来获得通才功能。LLM范式的成功在一定程度上得益于使用标记tokens,这些标记优雅地统一了不同的文本模式——代码、数学和各种自然语言。在这项工作中,我们考虑了视觉数据的生成模型如何继承这些好处。LLM 有文本标记text tokens,而 Sora 有视觉补丁visual patches。补丁以前已被证明是视觉数据模型的有效表示。我们发现,补丁是一种高度可扩展且有效的表示,用于在不同类型的视频和图像上训练生成模型。
在高层次上,我们首先将视频压缩到低维的潜在空间中,从而将视频转换为补丁,19并随后将表示分解为时空斑块。
视频压缩网络Video compression network
我们训练了一个网络,可以降低视觉数据的维度。该网络将原始视频作为输入,并输出在时间和空间上都经过压缩的潜在表示。Sora在这个压缩的潜在空间中接受训练并随后生成视频。我们还训练了一个相应的解码器模型,该模型将生成的潜在对象映射回像素空间。
时空潜伏斑块Spacetime latent patches
给定一个压缩的输入视频,我们提取一系列时空补丁,这些补丁充当transformer 令牌。此方案也适用于图像,因为图像只是单帧视频。我们基于补丁的表示使 Sora 能够对可变分辨率、持续时间和纵横比的视频和图像进行训练。在推理时,我们可以通过在适当大小的网格中排列随机初始化的补丁来控制生成的视频的大小。
用于视频生成的Scaling transformers for video generation
Sora是一个扩散模型;给定输入的嘈杂补丁(以及文本提示等条件信息),它被训练来预测原始的“干净”补丁。重要的是,Sora是一个扩散Transformer。Transformer 在各个领域都表现出了非凡的扩展特性,包括语言建模、计算机视觉,和图像生成。
在这项工作中,我们发现扩散transformers也可以有效地扩展为视频模型。下面,我们展示了随着训练的进行,具有固定种子和输入的视频样本的比较。随着训练计算的增加,样本质量显著提高。
可变时长、分辨率、纵横比
过去的图像和视频生成方法通常将视频调整大小、裁剪或修剪为标准大小,例如,分辨率为 256x256 的 4 秒视频。我们发现,相反,以原生大小对数据进行训练有几个好处。
采样灵活性
Sora 可以对宽屏 1920x1080p 视频、垂直 1080x1920 视频以及介于两者之间的所有视频进行采样。这使 Sora 可以直接以原始纵横比为不同设备创建内容。它还使我们能够在以全分辨率生成之前以较小的尺寸快速制作内容原型 - 所有这些都使用相同的模型。
改进的取景和构图
我们根据经验发现,以原始纵横比对视频进行训练可以改善构图和取景。我们将 Sora 与模型的一个版本进行了比较,该模型将所有训练视频裁剪为正方形,这是训练生成模型时的常见做法。在方形裁剪上训练的模型(左)有时会生成视频,其中主体仅部分可见。相比之下,Sora(右)的视频改善了取景。
语言理解Language understanding
训练文本到视频生成系统需要大量带有相应文本标题的视频。我们应用了DALL·E 3到视频。我们首先训练一个高度描述性的字幕器模型,然后使用它为训练集中的所有视频生成文本字幕。我们发现,对高度描述性视频字幕的培训可以提高文本保真度以及视频的整体质量。
与DALL·E 3相似,我们还利用 GPT 将简短的用户提示转换为更长的详细字幕,然后发送到视频模型。这使 Sora 能够准确遵循用户提示生成高质量的视频。
使用图像和视频进行提示 Prompting with images and videos
也可以用其他输入提示 Sora,例如预先存在的图像或视频。此功能使 Sora 能够执行各种图像和视频编辑任务——创建完美循环的视频、为静态图像制作动画、在时间上向前或向后扩展视频等。
动画 DALL·E 图像
Sora 能够生成视频,提供图像和提示作为输入。下面我们展示基于DALL·E 231和 DALL·E 330图像。
Sora is generating from image
扩展生成的视频
Sora 还能够向前或向后扩展视频。以下是四个视频,它们都是从生成的视频片段开始向后扩展的。因此,四个视频的开头都与其他视频不同,但所有四个视频都指向相同的结局。
我们可以使用这种方法向前和向后扩展视频,以产生无缝的无限循环。
视频到视频编辑
扩散模型已经实现了多种从文本提示中编辑图像和视频的方法。下面我们应用其中一种方法,SDEdit,32到索拉。这种技术使 Sora 能够零镜头转换输入视频的风格和环境。
连接视频
我们还可以使用 Sora 在两个输入视频之间逐渐插值,在具有完全不同主题和场景构图的视频之间创建无缝过渡。在下面的示例中,中间的视频在左侧和右侧的相应视频之间进行插值。
图像生成功能
Sora 还能够生成图像。为此,我们将高斯噪声的斑块排列在时间范围为一帧的空间网格中。该模型可以生成可变大小的图像,分辨率高达 2048x2048。