一个画面,两条时间线!用AI改写视频不同主角时间,效果堪比大片

简介: 一个画面,两条时间线!用AI改写视频不同主角时间,效果堪比大片

前阵子大热的电影《信条》你看了吗?

无论是从剧情还是制作上这部电影都掀起了一阵舆论浪潮。影片中令人印象最深刻的无疑是几场“时间钳形大战”,高度还原了时间逆转的整个过程,而不是直接跳转到过去的某个时间点。

为了把时间在不同方向上的运行真实的展示出来,导演诺兰表示,在这部电影中用到的特效镜头不到300个,甚至可能比大多数的浪漫喜剧电影还要少。真是让人实名瑞斯拜。

诺兰尽量坚持实拍也是他自己的“信条”,但随着科技的进步,不可否认,技术能做到的事情越来越多。

这不,最近谷歌和牛津大学的研究人员发表了一款“视频剪辑新利器”,可以“重写时间”!

在视频里可以只对特定人物的动作实现快进、慢放甚至删除等,而不影响画面上的其他人物,还可实现多种特殊动态效果。

来和文摘菌一起看看吧~

当深度神经网络学会了“掌控时间线”

先来看一个例子,这里有一个孩子们跳水的视频,原视频中他们是分别跳入水中的:

研究人员用了一种全新的深度神经网络进行视频处理,成功的做到让他们一同跳入水中!见证奇迹的时刻:

是不是完全没有修改痕迹,看起来是如此的自然流畅。

这就是谷歌和牛津大学研究人员提出的“时间重写术”,他们训练了一种深度神经网络,学习如何将视频分层分解。

这个模型不仅在不同的层中分离了人的运动,而且还可以捕捉与那些人相关的各种场景元素(例如,孩子们在水中溅起的水、阴影、映像)。当视频中的人被“重写时间”的时候,这些相关的元素也会自动与他们一起重新计时,这使得研究人员能够为各种重新计时的效果创建真实的视频重染。

再来看看这个“时间重写”大法还能做出什么毫无违和的视频~

“冻结时间”

如下图所示,这里有两对小朋友在跳拉丁舞,可以看到,在原视频中从视频开始他们就一直在跳。

接下来,就要“冻结时间”了!就像我们在电影中看到的那样,有超能力的主角可以在众人静止的时候活动。那么未来这种特效似乎可以放心的交给AI了!

就像这样,AI可以对时间进行偏移,例如偏移时间为1秒,我们可以看到右侧这对小朋友静止了1秒才开始跳,自然他们的舞蹈动作相对左侧的对照组也会随之延后1秒。

除此之外,这个神经网络还可以随心所欲的控制“冻结”谁以及“冻结”时间,比如跳到一半让右边这对停一下~

左边这对先停一下再跳也没问题~

你以为就这??当然不止。这个神经网络还可以让视频中的人物变成“重影”的效果。

在进行视频剪辑的时候,有一种叫做“叠化”的转场效果不知大家是否有所耳闻。什么意思呢?就是在视频中两个片段切换的时候,为了让切换效果更加自然而采取的一种过渡手段。也就是说,前一个片段的结尾和后一个片段的开头重叠在一起。

而谷歌和牛津大学研究人员训练的这个神经网络可以做到与“叠化”转场类似的效果。研究人员把这个效果称之为——Duplication。区别于视频转场,这个效果可以通过重写时间来叠化一段视频中的人物动作。

来看个例子,原视频中粉色裤子的小女孩做了一个侧手翻:

通过神经网络的渲染,可以变成以下效果:

侧手翻的小女孩的动作叠化后是不是有点炫酷~ 另外右边蓝色衣服的女孩用到了冻结效果。两则视频对比来看,周围的环境完全看不出有什么异样,这样的特效可以说是非常成功了~

通过分层神经渲染,只重新定义人物时间线,视频毫无违和感!

所有这些效果都是通过一种新的基于深度神经网络的模型实现的,这项技术的核心是分层神经渲染。

即该模型可以根据视频进行优化,将每帧图像分解为一组层,每个层由一个RGB彩色图像和一个不透明蒙版α(统称为“RGBA”)组成,与视频中特定的单个/多个人物相关联。

背景层以及1-3层

需要注意的是,研究人员在这项研究中只关注重写时间。也就是说,输出视频中的人物姿态都是在原视频中出现的,他们不生成新的、看不见的姿态或视点。

值得一提的是,他们的方法不需要手动注释或显式表示动态场景元素,如阴影、水花和蹦床变形;而是只需要对人员进行粗略的参数化,然后,模型会自动学习将与人物相关的场景分组重建。重要的是,重定时效果可以通过对层的简单操作(移除、复制或插值特定层)而产生,而无需额外的训练或处理。

分层神经渲染

更多理论详情,可以参见论文《Layered Neural Rendering for Retiming People in Video》:
https://arxiv.org/pdf/2009.07833.pdf

这项研究的相关代码也将在SIGGRAPH Asia 2020上发布,大会预计将在12月4日举行。

最后,文摘菌也期待的搓搓手,希望未来AI能加入电影特效大军~

相关参考:
https://retiming.github.io/

相关文章
|
17天前
|
人工智能 自然语言处理 开发者
AIGC创作活动 | 跟着UP主秋葉一起部署AI视频生成应用!
本次AI创作活动由 B 站知名 AI Up 主“秋葉aaaki”带您学习在阿里云 模型在线服务(PAI-EAS)中零代码、一键部署基于ComfyUI和Stable Video Diffusion模型的AI视频生成Web应用,快速实现文本生成视频的AI生成解决方案,帮助您完成社交平台短视频内容生成、动画制作等任务。制作上传专属GIF视频,即有机会赢取乐歌M2S台式升降桌、天猫精灵、定制保温杯等好礼!
|
1月前
|
机器学习/深度学习 编解码 人工智能
麻省理工AI新研究可将马赛克变视频
【2月更文挑战第30天】麻省理工学院等机构的研究团队推出AI新技术FeatUp,可将低分辨率图像提升为高清视频,该技术在2024年ICLR会议上引起关注。FeatUp基于深度特征提取,通过多视角一致性损失恢复空间信息,提高视频清晰度。模型通用性强,适用于多种任务和现有应用。实验显示,它在图像超分辨率和端到端学习模型性能提升上超越其他方法。然而,尚存在对某些内容处理不完善和计算资源需求高的局限性。
54 2
麻省理工AI新研究可将马赛克变视频
|
1月前
|
人工智能 vr&ar
AIGC领域又有大动作了!AI视频“黑马”Morph Studio 来袭,1080P高清画质视频免费生成!
AIGC领域又有大动作了!AI视频“黑马”Morph Studio 来袭,1080P高清画质视频免费生成!
|
1月前
|
机器学习/深度学习 人工智能 编解码
哲学家解析Sora本质,AI视频离世界模拟器还有多远?
【2月更文挑战第24天】哲学家解析Sora本质,AI视频离世界模拟器还有多远?
24 2
哲学家解析Sora本质,AI视频离世界模拟器还有多远?
|
1月前
|
人工智能 边缘计算 监控
【开源视频联动物联网平台】视频AI智能分析部署方式
【开源视频联动物联网平台】视频AI智能分析部署方式
112 3
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
AI视频大模型Sora新视角:从介绍到商业价值,全面解读优势
Sora是OpenAI于`2024年2月16日`发布的文生视频模型,`能够根据用户输入的提示词、文本指令或静态图像,生成长达一分钟的视频`,其中既能实现多角度镜头的自然切换,还包含复杂的场景和生动的角色表情,且故事的逻辑性和连贯性极佳。
|
2月前
|
人工智能 算法 搜索推荐
Sora - 探索AI视频模型的无限可能
Sora - 探索AI视频模型的无限可能
|
1月前
|
人工智能 运维 并行计算
Sora横空出世,AI视频时代崭露头角,我们准备好了吗?
2024年新春伊始,OpenAI新发布的Sora模型,在AI生成视频赛道扔下一枚深水炸弹,将曾经大火AI视频创业公司的模型直接碾压。
|
30天前
|
人工智能 监控 算法
java智慧城管源码 AI视频智能分析 可直接上项目
Java智慧城管源码实现AI视频智能分析,适用于直接部署项目。系统运用互联网、大数据、云计算和AI提升城市管理水平,采用“一级监督、二级指挥、四级联动”模式。功能涵盖AI智能检测(如占道广告、垃圾处理等)、执法办案、视频分析、统计分析及队伍管理等多个模块,利用深度学习优化城市管理自动化和智能化,提供决策支持。
219 4
java智慧城管源码 AI视频智能分析 可直接上项目
|
14天前
|
人工智能 算法 测试技术
AI视频理解天花板,全新MiniGPT4-Video刷爆SOTA!
【4月更文挑战第10天】KAUST和哈佛大学联合研发的MiniGPT4-Video模型在视频理解任务中打破多项纪录,成为业界关注点。这款多模态AI系统基于大型语言模型,能同时处理视觉和文本信息,提升了视频内容理解的深度。通过创新的视觉-文本混合处理,模型在MSVD、MSRVTT等基准测试中取得显著性能提升。然而,由于依赖上下文窗口,目前对较长视频处理有限制。该模型的出现推动了视频理解领域的进步,具有广阔的应用前景。
20 1
AI视频理解天花板,全新MiniGPT4-Video刷爆SOTA!

热门文章

最新文章