一键慢镜头:视频插帧,让老电影“纵享丝滑”

简介: MMEditing 是面向底层视觉任务的工具包,属于 OpenMMLab 开源算法体系。近期,我们在 MMEditing 中拓展了一个新的方向:视频插帧。本文将简要介绍视频插帧的技术原理,并带大家使用 MMEditing 实现一个视频插帧的 Demo。

MMEditing 是面向底层视觉任务的工具包,属于 OpenMMLab 开源算法体系。近期,我们在 MMEditing 中拓展了一个新的方向:视频插帧。本文将简要介绍视频插帧的技术原理,并带大家使用 MMEditing 实现一个视频插帧的 Demo。

难度:入门


高清与流畅缺一不可



经过社区开发者的不懈努力,MMEditing 已经支持了大量先进的超分辨率模型,可以将视频和图像从低分辨率无损放大到高分辨率,解决了观众对超清画质的追求经典电影欠佳的画质之间的矛盾。

640.png

然而这还不够,影响观看体验的不仅仅是画质,还有流畅度,否则...

640.png

技术层面上,画质对应分辨率,而流畅度则对应帧率


视频是连续播放的图像序列,帧率则表示图像序列的播放速度。帧率通常以 FPS(Frames per second),即每秒帧数为单位,帧率越高,视频的流畅度越高,观感体验越好。在知乎上,相关的讨论也层出不穷。


现如今,主流视频平台上 30 FPS、60 FPS 的视频随处可见,部分平台已支持 120 FPS 的视频。但受限于早期摄影技术以及互联网有限传输带宽,许多经典影视作品只有 24 FPS 甚至 15 FPS 的帧率,让我们在回味经典时不免有些小遗憾。而视频插帧技术可以提高低帧率视频的流畅度,让经典重现精彩。


什么是视频插帧✦



视频插帧旨在提高视频的帧率和流畅度,让视频看起来更加“丝滑”。


提升帧率似乎并不困难,只需要在相邻的视频帧之间插入一个新的视频帧,视频的帧率就可以提高一倍。但问题是,这一帧图像的内容应该是什么样的?


假设当前帧为  image.png ,下一帧为   image.png,中间帧为 image.png  ,三者均为  image.png  的三维数组。

我们可以令  image.png 或  image.png  ,但这样只是形式上提高了帧率,视频流畅度没有得到改善。


我们也可以令  image.png ,其中image.png  ,即通过像素加权平均产生模糊的中间帧,从而起到一定的过渡效果。但这种方法会降低单帧图像的质量,产生虚影。如下图所示,第1、5、8帧是清晰的,而其余中间帧都包含虚影。

640.png

而最优方案,则是根据视频中物体运动状态,估计出一个清晰的中间帧,如下图所示。但这个方法有一定难度,因为这个理想的中间帧并不存在于原视频中,也不能通过简单的像素平均从相邻帧获得。因此,视频插帧与图像超分辨率类似,都需要解决“无中生有”的问题。

640.png

图片出处

https://chrome.google.com/webstore/category/extensions?hl=zh


在深度学习出现之前,视频插帧的主流技术大多基于光流。简单来说,我们通过光流估计算法,得到当前帧  image.png  和下一帧   image.png 之间的运动矢量场  image.png ,再通过图像扭曲(Image wrapping)技术,用一半矢量场  image.png  对图像  image.png  做扭曲,就可以得到中间帧  image.png ,如下示意图所示:

640.png

这种方法依赖光流的估计,而传统的光流估计算法通常速度较慢,精度也较低。


深度学习时代的视频插帧✦



随着深度学习技术的出现,光流估计、视频插帧技术也得到了发展。目前,基于深度学习的视频插帧算法可分为以下几类:


- 基于的算法,包括光流、路径选择、运动补偿

- 基于 CNN 的算法,包括一般 CNN 算法、基于核的算法、基于 GAN 的算法

- 基于相位的算法

- 复合多种方案的算法

640.png

各类算法各有优劣,目前 MMEditing 已支持的 CAIN 算法属于基于 CNN 的算法,下面的视频就是使用 MMEditing 支持的 CAIN 算法进行两次插帧,将帧率从 24 FPS 提高到 96 FPS 的效果。为了凸显差异,我们将视频慢放,可明显看出视频插帧的效果。

image.png

原文链接:https://mp.weixin.qq.com/s/ZyzmU9yVaUDtSaGqJL9_zQ


Demo 实现✦



目前 MMEditing 已支持 CAIN 算法,接下来将详细介绍其调用方法。


安装 MMEditing



准备环境:

- Linux / Windows / macOS

- 如需使用 NVIDIA GPU 请确保驱动版本不低于 418


a. 创建 Python 环境


我们推荐使用 Conda 创建 Python 环境,以 Python 3.8 为例:

conda create -n mmedit python=3.8 -y
conda activate mmedit

b. 安装 PyTorch 和 MMCV


MMEditing 基于 PyTorch 和 MMCV,支持 PyTorch 1.5 以上的所有版本,此处以 PyTorch 1.7 为例。


例:安装 CUDA 版本的 PyTorch 和 MMCV

conda install pytorch==1.7.1 torchvision cudatoolkit=10.1 -c pytorch
pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7/index.html "opencv-python<=4.5.4.60"

例:安装 CPU 版本的 PyTorch 和 MMCV

conda install pytorch==1.7.1 torchvision cudatoolkit=10.1 -c pytorch
pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7/index.html "opencv-python<=4.5.4.60"

您可以根据需要调整 PyTorch 的版本,但需要根据 PyTorch 的版本调整 MMCV 的下载路径,具体请参考安装 MMCV — mmcv 1.4.5 文档


针对 macOS 平台,您需要从源码编译 MMCV,详见从源码编译 MMCV — mmcv 1.4.5 文档


安装 MMCV — mmcv 1.4.5 文档 网址:

https://mmcv.readthedocs.io/zh_CN/latest/get_started/installation.html


从源码编译 MMCV — mmcv 1.4.5 文档 网址:

https://mmcv.readthedocs.io/zh_CN/latest/get_started/build.html#linux-macos-mmcv


c. 克隆 MMEditing 代码仓库


git clone https://github.com/open-mmlab/mmediting.git
cd mmediting

d. 安装 MMEditing


使用 pip 安装相关依赖,并从源码安装 MMEditing。

pip install -r requirements.txt
pip install -v -e .  # or "python setup.py develop"

e. 验证安装


安装完成后,可以切换到 /home 目录,并尝试在 python 中导入 mmedit,导入成功则证明安装成功。

$ cd ~
$ python
>>> import mmedit
>>> mmedit.__version__
'0.12.0'


调用插帧顺序



我们提供了一个插帧的小 demo 方便大家测试视频插帧的效果,调用命令如下:

python demo/video_interpolation_demo.py \
    configs/video_interpolators/cain/cain_b5_320k_vimeo-triplet.py \
    https://download.openmmlab.com/mmediting/video_interpolators/cain/cain_b5_320k_vimeo-triple_20220117-647f3de2.pth \
    ${INPUT_PATH} \
    ${OUTPUT_PATH} \
    [--fps_multiplier ${FPS_MULTIPLIER}] \
    [--fps ${FPS}]

其中,INPUT_PATH 是输入视频的路径,OUTPUT_PATH 是输出视频的路径。路径可以是一个视频文件路径,也可以是包含若干图像的文件夹(图像排列需要有序)。


输出视频的帧率(FPS)可由 --fps 参数指定,例如:

python demo/video_interpolation_demo.py \
    configs/video_interpolators/cain/cain_b5_320k_vimeo-triplet.py \
    https://download.openmmlab.com/mmediting/video_interpolators/cain/cain_b5_320k_vimeo-triple_20220117-647f3de2.pth \
    input.mp4 \
    output.mp4 \
    --fps 60

也可根据 --fps_multiplier 在输入视频帧率的基础上倍增(前提是 INPUT_PATH 为视频文件路径)

python demo/video_interpolation_demo.py \
    configs/video_interpolators/cain/cain_b5_320k_vimeo-triplet.py \
    https://download.openmmlab.com/mmediting/video_interpolators/cain/cain_b5_320k_vimeo-triple_20220117-647f3de2.pth \
    input.mp4 \
    output.mp4 \
    --fps_multiplier 2.0

可使用重复调用插帧程序,以获得更高帧率的视频:

- 处理 1 次,帧率 x2

- 处理 2 次,帧率 x4

- ……


视频后处理



下面这段代码可以将两个视频左右拼接,并放慢速度,得到文章开头的对比视频。代码行数虽然较多,但逻辑并不复杂,仅调用 MMCV 和 OpenCV 视频相关的功能,限于篇幅我们这里就不详细介绍啦。


import cv2
import mmcv
import numpy as np
def vfi_cain_demo(ori_path, vfi_path, result_path, slow=1.0):
    """Compare ori video and interpolated video.
    Args:
        ori_path (str): Path of original video.
        vfi_path (str): Path of interpolated video.
        result_path (str): Path of the result video.
        slow (float): Slow factor.
    """
    print(f'load the original videos: {vfi_path}')
    ori_reader = mmcv.VideoReader(ori_path)
    ori_fps = ori_reader.fps
    ori_images = []
    for img in ori_reader:
        ori_images.append(img)
    print(f'load the interpolated video: {vfi_path}')
    vfi_reader = mmcv.VideoReader(vfi_path)
    vfi_fps = vfi_reader.fps
    vfi_images = []
    for img in vfi_reader:
        vfi_images.append(img)
    print(f'merge videos and save to {result_path}')
    h, w = vfi_images[0].shape[:2]
    rate = round(len(vfi_images) / len(ori_images))
    fourcc = cv2.VideoWriter_fourcc(*'mp4v')
    video_writer = cv2.VideoWriter(result_path, fourcc, vfi_fps/slow, (w, h))
    for i in range(len(vfi_images)):
        image = np.zeros_like(vfi_images[i])
        print(i, rate, i//rate)
        image[:, :w//2] = ori_images[i//rate][:, :w//2]
        image[:, w//2:] = vfi_images[i][:, w//2:]
        image[:, w//2:w//2+1] = 0
        video_writer.write(image)
    cv2.destroyAllWindows()

拷贝并调用以上函数即可获得对比视频。


例如,使用插帧程序处理 3 次,获得 8 倍帧率的视频,再进行后处理(4 倍慢放)后可得以下视频:

image.png

原文链接:https://mp.weixin.qq.com/s/ZyzmU9yVaUDtSaGqJL9_zQ

目录
相关文章
|
移动开发 算法 JavaScript
平滑切换——PPT动画的全新玩法(原理篇)/04/O365智能系列(一)
平滑切换——PPT动画的全新玩法(原理篇)/04/O365智能系列(一)
3909 1
平滑切换——PPT动画的全新玩法(原理篇)/04/O365智能系列(一)
|
机器学习/深度学习 开发框架 .NET
YOLOv5的Tricks | 【Trick6】学习率调整策略(One Cycle Policy、余弦退火等)
YOLOv5的Tricks | 【Trick6】学习率调整策略(One Cycle Policy、余弦退火等)
4926 0
YOLOv5的Tricks | 【Trick6】学习率调整策略(One Cycle Policy、余弦退火等)
|
NoSQL Java Go
记一次Golang内存分析——基于go pprof
## 1. 背景 阿里云Redis线上在某些任务流中使用`redis-port`来进行实例之间的数据同步。`redis-port`是一个MIT协议的开源软件,主要原理是从源实例读取RDB快照文件、解析、然后在目标实例上应用灌数据的写命令。为了限制每个进程的最大内存使用,我们使用cgroup来做隔离,最近线上出现redis-port在同步数据时`OOM`的情况,最高内存使用达到了`10G`以上
25846 0
|
存储 Go
Go 语言入门指南:切片
Golang中的切片(Slice)是基于数组的动态序列,支持变长操作。它由指针、长度和容量三部分组成,底层引用一个连续的数组片段。切片提供灵活的增减元素功能,语法形式为`[]T`,其中T为元素类型。相比固定长度的数组,切片更常用,允许动态调整大小,并且多个切片可以共享同一底层数组。通过内置的`make`函数可创建指定长度和容量的切片。需要注意的是,切片不能直接比较,只能与`nil`比较,且空切片的长度为0。
424 3
Go 语言入门指南:切片
|
人工智能 搜索推荐 API
开源2.0|从事视频剪辑的“熬者们”,自动化剪辑工具 FunClip请收好
开源2.0|从事视频剪辑的“熬者们”,自动化剪辑工具 FunClip请收好
开源2.0|从事视频剪辑的“熬者们”,自动化剪辑工具 FunClip请收好
|
Docker 容器
解决docker启动logstash失败的问题(可能原因)
解决docker启动logstash失败的问题(可能原因)
662 0
|
Ubuntu Shell 索引
在Ubuntu 12.10上安装和使用tmux的方法
在Ubuntu 12.10上安装和使用tmux的方法
709 0
|
并行计算 openCL Ubuntu
Nvidia GeForce GTX 1650不支持OpenGL4.6
本文讨论了Nvidia GeForce GTX 1650显卡不支持OpenGL 4.6的问题。尽管更新了显卡驱动到最新的NVIDIA 512.15版本,并通过nvidia-smi命令确认了CUDA版本,但在检查OpenGL版本时发现它只支持到4.4。文章还提供了参考链接,包括NVIDIA Developer网站上的OpenGL驱动支持信息和其他用户在不同操作系统上更新OpenGL版本的经验。
1543 0
Nvidia GeForce GTX 1650不支持OpenGL4.6
|
存储 Java 编译器
如何在 Java 中初始化对象 Arraylist?
【8月更文挑战第23天】
722 0
|
XML Android开发 数据格式
11. 【Android教程】帧布局 FrameLayout
11. 【Android教程】帧布局 FrameLayout
631 1