最新功能概览
开源地址:https://github.com/hpcaitech/Open-Sora
技术报告:Open-Sora/docs/report_02.md at main · hpcaitech/Open-Sora · GitHub技术报告:
- 支持长视频生成;
- 视频生成分辨率最高可达 720p;
- 单模型支持任何宽高比,不同分辨率和时长的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的生成需求;
- 提出了更稳定的模型架构设计,支持多时间 / 分辨率 / 长宽比 / 帧率训练;
- 开源了最新的自动数据处理全流程。
时空扩散模型 ST-DiT-2
作者团队表示,他们对 Open-Sora 1.0 中的 STDiT 架构进行了关键性改进,旨在提高模型的训练稳定性和整体性能。针对当前的序列预测任务,团队采纳了大型语言模型(LLM)的最佳实践,将时序注意力中的正弦波位置编码(sinusoidal positional encoding)替换为更加高效的旋转位置编码(RoPE embedding)。
此外,为了增强训练的稳定性,他们参考 SD3 模型架构,进一步引入了 QK 归一化技术,以增强半精度训练的稳定性。为了支持多分辨率、不同长宽比和帧率的训练需求,作者团队提出的 ST-DiT-2 架构能够自动缩放位置编码,并处理不同大小尺寸的输入。
多阶段训练
根据 Open-Sora 技术报告指出,Open-Sora 采用了一种多阶段训练方法,每个阶段都会基于前一个阶段的权重继续训练。相较于单一阶段训练,这种多阶段训练通过分步骤引入数据,更高效地实现了高质量视频生成的目标。
初始阶段大部分视频采用 144p 分辨率,同时与图片和 240p,480p 的视频进行混训,训练持续约 1 周,总步长 81k。
第二阶段将大部分视频数据分辨率提升至 240p 和 480p,训练时长为 1 天,步长达到 22k。第三阶段进一步增强至 480p 和 720p,训练时长为 1 天,完成了 4k 步长的训练。
整个多阶段训练流程在约 9 天内完成,与 Open-Sora1.0 相比,在多个维度提升了视频生成的质量。
统一的图生视频 / 视频生视频框架
作者团队表示,基于 Transformer 的特性,可以轻松扩展 DiT 架构以支持图像到图像以及视频到视频的任务。他们提出了一种掩码策略来支持图像和视频的条件化处理。
通过设置不同的掩码,可以支持各种生成任务,包括:图生视频,循环视频,视频延展,视频自回归生成,视频衔接,视频编辑,插帧等。
支持图像和视频条件化处理的掩码策略
作者团队表示,受到 UL2[2] 方法的启发,他们在模型训练阶段引入了一种随机掩码策略。
具体而言,在训练过程中以随机方式选择并取消掩码的帧,包括但不限于取消掩码第一帧、前 k 帧、后 k 帧、任意 k 帧等。作者还向我们透露,基于 Open-Sora 1.0 的实验,应用 50% 的概率应用掩码策略时,只需少量步数模型能够更好地学会处理图像条件化。
在 Open-Sora 中,他们采用了从头开始使用掩码策略进行预训练的方法。
此外,作者团队还贴心地为推理阶段提供了掩码策略配置的详细指南,五个数字的元组形式在定义掩码策略时提供了极大的灵活性和控制力。
掩码策略配置说明
支持多时间 / 分辨率 / 长宽比 / 帧率训练
OpenAI Sora 的技术报告 [3] 指出,使用原始视频的分辨率、长宽比和长度进行训练可以增加采样灵活性,改善帧和构图。对此,作者团队提出了分桶的策略。
具体怎么实现呢?通过深入阅读作者发布的技术报告,我们了解到,所谓的桶,是(分辨率,帧数,长宽比)的三元组。
团队为不同分辨率的视频预定义了一系列宽高比,以覆盖大多数常见的视频宽高比类型。在每个训练周期 epoch 开始之前,他们会对数据集进行重新洗牌,并将样本根据其特征分配到相应的桶中。
具体来说,他们会将每个样本放入一个分辨率和帧长度均小于或等于该视频特性的桶中。
Open-Sora 分桶策略
作者团队进一步透露,为了降低计算资源的要求,他们为每个 keep_prob 和 batch_size 引入两个属性(分辨率,帧数),以减少计算成本并实现多阶段训练。
这样,他们可以控制不同桶中的样本数量,并通过为每个桶搜索良好的批大小来平衡 GPU 负载。
作者在技术报告中对此进行了详尽的阐述:https://github.com/hpcaitech/Open-Sora。
数据收集和预处理流程
作者团队甚至对数据收集与处理环节也提供了详尽的指南。根据作者在技术报告中的阐述,在 Open-Sora 1.0 的开发过程中,他们意识到数据的数量和质量对于培育一个高效能模型极为关键,因此他们致力于扩充和优化数据集。
他们建立了一个自动化的数据处理流程,该流程遵循奇异值分解(SVD)原则,涵盖了场景分割、字幕处理、多样化评分与筛选,以及数据集的管理系统和规范。同样,他们也将数据处理的相关脚本无私地分享至开源社区。对此感兴趣的开发者现在可以利用这些资源,结合技术报告和代码,来高效地处理和优化自己的数据集。
Open-Sora 数据处理流程
Open-Sora 性能全方位评测
视频生成效果展示
Open-Sora 最令人瞩目的亮点在于,它能够将你脑中的景象,通过文字描述的方式,捕捉并转化为动人的动态视频。那些在思维中一闪而过的画面和想象,现在得以被永久地记录下来,并与他人分享。
比如,生成一个在冬季森林里游览的视频。雪刚下不久,松树上挂满了皑皑白雪,暗色的松针和洁白的雪花错落有致,层次分明。
仅需一个简洁的指令,Open-Sora 便能生成多分辨率的视频短片,彻底打破创作限制。
分辨率:480*854p
我们还可以喂给 Open-Sora 一张静态图片让它生成短片。
Open-Sora 还可以将两个静态图巧妙地连接起来,轻触下方视频,将带您体验从下午至黄昏的光影变幻,每一帧都是时间的诗篇。
再比如说我们要对原有视频进行编辑,仅需一个简单的指令,原本明媚的森林便迎来了一场鹅毛大雪。
我们也能让 Open-Sora 生成高清的图片
值得注意的是,Open-Sora 的模型权重已经完全免费公开在他们的开源社区上。由于他们还支持视频拼接功能,这意味着我们完全有机会免费创作出一段带有故事性的小短片,将创意带入现实。
权重下载地址:https://github.com/hpcaitech/Open-Sora。
当前局限与未来计划
尽管在复现类 Sora 文生视频模型的工作方面取得了不错的进展,但作者团队也谦逊地指出,当前生成的视频在多个方面仍有待改进:包括生成过程中的噪声问题、时间一致性的缺失、人物生成质量不佳以及美学评分较低。
对于这些挑战,作者团队表示,他们将在下一版本的开发中优先解决,以期望达到更高的视频生成标准,感兴趣的朋友不妨持续关注一下。我们期待 Open-Sora 社区带给我们的下一次惊喜。
参考文献:
-
https://github.com/hpcaitech/Open-Sora/blob/main/docs/report_02.md
-
Tay, Yi, et al. "Ul2: Unifying language learning paradigms." arXiv preprint arXiv:2205.05131 (2022).
-
https://openai.com/research/video-generation-models-as-world-simulators