从视频合成到配乐剪辑,全由AI操刀完成:首部AI科幻电影《创世纪》预告片震撼登场

简介: 从视频合成到配乐剪辑,全由AI操刀完成:首部AI科幻电影《创世纪》预告片震撼登场


编辑:杜伟、泽文

让我们看看,AI眼中的科幻电影《创世纪》是怎样的?


最近两天,一则时长不到一分钟的科幻电影预告片《Trailer: Genesis》(《创世纪》)在社交媒体上火了起来。

,时长00:48

是不是很科幻呢?更「科幻」的是,从图像视频合成、音乐到剪辑,所有一切都是由 AI 完成的

制作者 Nicolas Neubert 列出了对应的 AI 工具,其中 Midjourney 处理图像、Runway 处理视频、Pixabay 处理音乐、CapCut 剪辑视频

Midjourney 是大家熟悉的 AI 绘图神器,目前已经更新到了 5.2 版本。Runway 是基于 AI 的视频制作生成工具,目前 Gen-2 已经开启免费试用。CapCut 剪辑工具对所有人免费,不过也可以选择在 Adobe Premier 或 Final Cut Pro 中剪辑。

推特 @iamneubert

据了解,Neubert 花了 7 个小时,Midjourney 生成了 316 条提示、放大了 128 张图像,Runway 生成了 310 个视频,还有一个带有文本的视频,预告片中共使用了 44 个视频。

今天,Neubert 更是撰写了一篇长文,详细介绍了《创世纪》的制作过程,包含了具体流程、如何使用上述 AI 工具。我们一一来看。


关于电影想法,他表示自己反乌托邦主题的想法来自自己看过的几部电影,并以它们为基础编写了一个故事。

正式制作的第一步是构建世界和故事

对于预告片《创世纪》的故事情节,Neubert 想一步步地增强紧张感。因此定义了以下 3 个阶段:

  1. 设置场景
  2. 引入威胁
  3. CTA 中的高潮


具体地讲,Neubert 先制作预告片的第一个文案草稿,包括「分享一切、承担后果然后呼吁人类采取行动」。

这样定义了整体基调后,他开始围绕这些主题生成相应的场景。Neubert 滚动了大量有关环境、军事科技、战斗主题的人类和科幻剪辑,然后从中收集到一个故事。

同时为了增加一些深度,他添加了三个带有发光护身符的孩子的镜头,暗示了更深层次的故事情节。


第二步是在 Midjourney 中生成连续的图像

这里要特别注意提示(prompt)。Neubert 对自己在以往帖子中获得的稳定提示进行了优化,创建了一个模板,这样在预告片的每个镜头中都能重复使用它。模板如下:

___________,星球大战、风格为精细的人群场景、朴实的自然主义、青色和黄色、寒霜朋克、室内场景、cinestill 50d—ar 21:9— 原始风格


对于每个场景,他都会用自己想要的场景来填补空白,确保其他 tokens 最大限度地保持主题、颜色和照明的连贯性。

此外利用强变化(Strong Variations)功能,使得更容易创建不同的场景,同时保留之前的调色板。女战士的场景可以转变为普通公民、网络黑客或战斗的场景,无需生成新的提示。


第三步是在 Runway 中生成动画图像

Neubert 发现这一步是最简单的。在设置上,他总是尝试激活放大(Upscaled)模式。不过该模式常常遇到面部问题,所以针对人物镜头,他通常使用标准质量。

值得注意的是,他没有使用文字提示与图像提示相结合的方式,而是拖放一张图像并重新生成它,直到得到自己满意的结果。

最后一步是在 CapCut 后期剪辑

在 Midjourney 和 Runway 生成输出的同时,Neubert 首先放置自己知道将发挥重要作用的关键场景。就预告片而言,他认为外景镜头将成为开场。

接着开始计划文本。当根据音乐来定位文本时,时间轴中没有任何剪辑,这是有可能的。他在不到一个小时的时间里就按照时间线编好了内容并定了位。这对生成图像很有帮助,你需要一个额外的固定点来考虑仍然缺少了哪些场景。

具体的步骤变得很简单,生成剪辑→ 将它们拉入 CapCut → 放置在时间轴上,然后慢慢拼凑故事。他还对 2 到 3 个编辑包进行了颜色匹配,让它们看起来更像宏大的电影场景。

使用 CapCut 唯一需要的技巧是对剪辑进行节拍的同步。当音乐中出现「BWAAA」时,他总是尝试连接剪辑内的动作或者排列后面的剪辑。这会令整个序列更有身临其境的感觉。

此外 Neubert 还考虑了如何在剪辑中加入大量的动作。这里他使用了两个技巧来增加动作。


第一个技巧:Runway 会接收一张图像,然后根据模型计算哪些部分应该进行动画处理。他对这个思路进行了逆向工程,尝试在 Midjourney 中输出暗示运动的图像。这意味着可以在镜头中加入运动模糊或者可以捕捉移动头部或人物的静止图像。

第二个技巧:当你分析 Runway 视频时会发现在 4 秒剪辑中,场景经常发生很大的变化。因此在预告片场景中,他只使用了完整的 4 秒剪辑两次。所有其他剪辑的长度均为 0.5-2 秒,并将剪辑的速度提高了 1.5- 3 倍。这样做的原因是,作为观看者,你只能看到时间很短的剪辑,因而会在场景中感知到更多运动,本质上是快进了该部分。

一番操作下来,最终呈现出给大家的就是开头的那个震撼的《创世纪》预告片。该预告片也得到盛赞,有人表示,这是自己至今为止看过的最好的 Runway 生成视频。


其实,在 Runway Gen-2 可以免费试用后,不少网友大开脑洞,将它与 Midjourney 结合起来,大胆创作。

Midjourney+Runway:神奇的 AI 创作工具组合

这里与大家分享一些其他的生成用例。

Runway 对与人物动作细节的把握也是较为准确的。在网友申城的视频中可以看到,人物眼睛的细节让动态视频更加传神,也可以说了平添了几分「演技」。

来源:https://twitter.com/OrctonAI/status/1682420932818661378

图片动起来之后,人与马在夜色中的动作十分自然,对于人物,甚至后续动作的想象空间也有了更大留白。

来源:https://twitter.com/OrctonAI/status/1682420932818661378
Midjourney 与 Runway 的组合看起来很是无敌,在人物关键动作上能刻画出适当的故事感。


推特:@ai_insight1
还有一些变化更加丰富,也更具创意的生成结果。

推特 @kkuldar

推特:@Akashi30eth

也有网友利用一系列 AI 工具生成视频短片,可是结果似乎不尽人意。

推特用户 @nickfloats 使用 ChatGPT 撰写脚本、Midjourney 生成图像、Runway 生成视频、Triniti 生成音乐、Eleven Labs AI 配音,剪辑就将其简单的拼接在一起,不做其他调整。

ChatGPT 撰写的脚本

网友记录了自己制作的全过程,想看看全程使用 AI 制作广告短片需要多久。


在经过 45 分钟之后,成片出来了,它的效果如何?

这名网友对这个短片成果的评价是 「The ad sucks」。这广告中,人物的动作僵硬,画面的逻辑关系不强,整体也很难凸显出想要表达的主题。AI 的通力合作似乎并没有出现惊喜,反而是「惊吓」更多一些。

与《创世纪》相比,这个广告短片时长是它的一半,但是用时极少。其中最大的差异就是人类参与的细节。它没有仔细斟酌后的主题、追求连贯的不断调整以及对细节的高要求。

如果只让 AI 来参与,或是只根据 AI 的生成来产出作品,显然还不能够由高质量的成果。人类对它们的应用和调整似乎才能体现这些工具的真正价值。


相关文章
|
5天前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
56 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
|
14天前
|
人工智能 自然语言处理 前端开发
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
Director 是一个构建视频智能体的 AI 框架,用户可以通过自然语言命令执行复杂的视频任务,如搜索、编辑、合成和生成视频内容。该框架基于 VideoDB 的“视频即数据”基础设施,集成了多个预构建的视频代理和 AI API,支持高度定制化,适用于开发者和创作者。
75 9
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
MMAudio:开源 AI 音频合成项目,根据视频或文本生成同步的音频
MMAudio 是一个基于多模态联合训练的高质量 AI 音频合成项目,能够根据视频内容或文本描述生成同步的音频。该项目适用于影视制作、游戏开发、虚拟现实等多种场景,提升用户体验。
61 7
MMAudio:开源 AI 音频合成项目,根据视频或文本生成同步的音频
|
21天前
|
机器学习/深度学习 存储 人工智能
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
EfficientTAM是Meta AI推出的轻量级视频对象分割和跟踪模型,旨在解决SAM 2模型在移动设备上部署时的高计算复杂度问题。该模型采用非层次化Vision Transformer(ViT)作为图像编码器,并引入高效记忆模块,以降低计算复杂度,同时保持高质量的分割结果。EfficientTAM在多个视频分割基准测试中表现出与SAM 2相当的性能,具有更快的处理速度和更少的参数,特别适用于移动设备上的视频对象分割应用。
36 9
EfficientTAM:Meta AI推出的视频对象分割和跟踪模型
|
9天前
|
人工智能 小程序 API
【一步步开发AI运动小程序】十七、如何识别用户上传视频中的人体、运动、动作、姿态?
【云智AI运动识别小程序插件】提供人体、运动、姿态检测的AI能力,支持本地原生识别,无需后台服务,具有速度快、体验好、易集成等优点。本文介绍如何使用该插件实现用户上传视频的运动识别,包括视频解码抽帧和人体识别的实现方法。
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
LTX Video:Lightricks推出的开源AI视频生成模型
LTX Video是由Lightricks推出的开源AI视频生成模型,能够在4秒内生成5秒的高质量视频。该模型基于2亿参数的DiT架构,确保帧间平滑运动和结构一致性,支持长视频制作,适用于多种场景,如游戏图形升级和电子商务广告变体制作。
96 1
LTX Video:Lightricks推出的开源AI视频生成模型
存储 人工智能 自然语言处理
49 6
|
1月前
|
机器学习/深度学习 人工智能 搜索推荐
AI与娱乐产业:电影制作的新工具
随着科技的发展,人工智能(AI)逐渐渗透到电影制作中,带来了前所未有的创新。本文探讨了AI在剧本创作、场景构建、特效制作、动作捕捉、音频处理、剪辑及市场调研等领域的应用,以及其对提升效率、激发创意和拓宽视野的影响,展望了AI在未来电影产业中的重要作用。
|
2月前
|
人工智能 编解码 API
【选择”丹摩“深入探索智谱AI的CogVideoX:视频生成的新前沿】
【选择”丹摩“深入探索智谱AI的CogVideoX:视频生成的新前沿】
|
3月前
|
人工智能
防AI换脸视频诈骗,中电金信联合复旦提出多模态鉴伪法,还入选顶会ACM MM
【9月更文挑战第26天】中电金信与复旦大学合作,提出一种基于身份信息增强的多媒体伪造检测方法,并入选ACM MM国际会议。该方法利用身份信息作为检测线索,构建了含54位名人324个视频的多模态伪造数据集IDForge,设计了参考辅助的多模态伪造检测网络R-MFDN,显著提升了检测性能,准确率达到92.90%。尽管如此,该方法仍存在一定局限性,如对非英语国家数据及无明确身份信息的视频检测效果可能受限。
92 4

热门文章

最新文章