用 OpenGL 对视频帧内容进行替换

简介: 在群里面有人提到了这么一个实现:现有一段素材视频,想要对视频中的某个内容进行替换,换成自己的图片,这个怎么用 OpenGL 去实现呢?

作者:星陨
来源:音视频开发进阶

在群里面有人提到了这么一个实现:现有一段素材视频,想要对视频中的某个内容进行替换,换成自己的图片,这个怎么用 OpenGL 去实现呢?

首先要明确的是,视频是由一帧一帧图像组成的,它利用了人眼的视觉暂留效应,一秒内播放足够帧数的图片才会感觉到是连续的。

而想要对视频的内容进行替换,也就是要将每一帧图像的内容都进行替换了,一般来说这应该是属于视频后期处理了,用专业的 AE (Adobe After Effects)软件来处理会比较好。

处理思路

如果用 OpenGL 来处理,有这样的一个思路:

首先通过 MediaCodec 对每一帧图像内容进行解码,然后再通过 OpenGL 对当前解码的一帧图像进行处理,在原图像上加一个透明的遮罩层,遮罩层的要求就是对于要替换的内容区域是非透明的,其他区域透明,将遮罩层和原图像进行融合,最后得到的就是一帧被替换过内容图像了,再将处理过的一帧图像进行编码,重新编码成新的视频内容。

一直重复 解码 -> 处理 -> 编码这个过程,直到视频的每一帧内容都处理完了,就实现了对视频内容替换。

当然这仅仅是个思路,难点在于如何找到合适的遮罩层,如果视频图像内容是变动的,要替换的内容不是固定的,那么对于遮罩层要求更高了,每一帧处理都得有个合适的遮罩。

下面会针对视频的一帧图像内容进行处理,如何将一帧的图像内容替换了。

直接效果

效果如下:
image.png
Sketch 设计图

代码实现的效果,左上方的内容被右上方内容替换了,最后成了右下角的图片。

image.png
软件实现图

准备工作

不会做设计的开发不是好码农

是时候掏出我的大宝石软件 Sketch 切个图了:

准备一张待替换内容:

image.png
待替换图片

然后再切一张同等大小,并把中间圆形位置的图片替换成想要的图片,其他周边内容设置透明度为 0 。

image.png
带透明度的遮罩图

接下来的事情就是将两张图片融合,分别介绍基于着色器和颜色混合来替换内容。

这两个方案都有一个共同点,就是要将带遮罩的图片覆盖在原图上,不同的是如何处理两个图片之间的覆盖,透明度就是一个比较好的切入点。

使用着色器进行替换

在 OpenGL 的渲染管线中,会先构建图形,然后进行光栅化,光栅化后对每一个片元着色,在这个着色过程中可以根据需要对片元进行处理,包括抛弃某些片元等,简单说在 OpenGL 中就是先有形后有色,而在有形有色的过程中可以搞点小操作~~

对片元进行处理就是我们的片元着色器脚本了。

1precision mediump float;
 2varying vec2 vTextureCoord; //接收从顶点着色器过来的参数
 3uniform sampler2D sTexture;//纹理内容数据
 4void main() { 
 5   vec4 bcolor = texture2D(sTexture, vTextureCoord);//给此片元从纹理中采样出颜色值 
 6   if(bcolor.a<0.6) {
 7           discard;
 8   } else {
 9      gl_FragColor=bcolor;
10}}

我们的遮罩图除了要替换的内容,其他地方都是透明的,根据采样出的透明度值小于阈值,就抛弃该片元,直接就不显示了。

而透明度满足要求的就会显示,并且在最后映射到视口上时,直接覆盖了原有的颜色。

通过这种方式就实现了内容替换。

image.png
使用着色器进行替换

使用颜色混合进行替换

使用颜色混合的方式不像着色器那样简单粗暴,要么抛弃某些片元,要么直接覆盖了。

它是根据一定的计算规则,来计算两个颜色之间的融合。

在 OpenGL 中使用颜色混合要设置合理的混合因子。

1        glEnable(GL_BLEND);
2        glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA)
3        // 绘制
4        glDisable(GL_BLEND)

混合因子的设置使得如果遮罩图是透明的,使用被遮罩图的颜色,如果不是透明的,使用遮罩图的颜色,这样就不是直接抛弃某些片元了。

image.png
使用颜色混合进行替换

代码实现

在具体的代码实现中,采用了 EGL 来实现离屏的渲染。

在非主线程中,初始化 EGL 环境,然后准备好绘制的必要工作,接着执行绘制,最后把绘制的结果通过 glReadPixels 读取出来。

1        Observable.fromCallable {
 2        // 初始化 EGL 环境
 3            return@fromCallable initEgl()
 4        }.map {
 5        // 设置各种矩阵
 6            prepare(width, height)
 7            return@map it
 8        }.map {
 9        // 执行绘制
10            replaceContent(isBlend)
11            return@map it
12        }.map {
13        // 读取像素
14            val result = readPixel(width, height)
15            it.destroy()
16            return@map result
17        }.subscribeOn(Schedulers.computation())
18                .observeOn(AndroidSchedulers.mainThread())
19                .subscribe({
20                // 设置效果
21                    mResultImage.setImageBitmap(it)
22                }, {
23                    showToast("replace failed")
24                })

具体的绘制过程比较简单,如果采用了颜色混合就执行颜色混合的绘制,否则采用着色器的绘制,也体现了就是将遮罩图直接覆盖在原图上的思想。

1 private fun replaceContent(isBlend: Boolean) {
 2        glClearColor(1f, 1f, 1f, 1f)
 3        glClear(GL_COLOR_BUFFER_BIT or GL_DEPTH_BUFFER_BIT)
 4        mOriginImage?.drawSelf(mOriginTextureId)
 5        if (isBlend) {
 6            glEnable(GL_BLEND);
 7            glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA)
 8            mReplaceImage?.drawSelf(mReplaceTextureId)
 9            glDisable(GL_BLEND)
10        } else {
11            mAlphaTextureRect?.drawSelf(mReplaceTextureId)
12        }
13    }

在最后读取像素内容时要注意,glReadPixels 读取的内容是上下颠倒的,需要将它翻转过来。

1   for (i in 0 until height) {
2            for (j in 0 until width) {
3                pixelMirroredArray[(height - i - 1) * width + j] = pixelArray[i * width + j]
4            }
5        }

具体的实现可以参考我的 Github 项目,求一波 Star 。

https://github.com/glumes/AndroidOpenGLTutorial

后续想法

对于视频内容替换,这里仅仅是给出了一帧图像内容的替换,而且还是基于透明度的。

看到好莱坞有些电影场景拍摄时,后面都会给出一块纯色的幕布,然后在后期处理时把幕布内容替换成背景,这种替换通过着色器比较颜色的范围应该也是可以实现的。

当然了,要是搭配图像识别来替换内容玩法就更加丰富了。

OpenGL 系列文章

「视频云技术」你最值得关注的音视频技术公众号,每周推送来自阿里云一线的实践技术文章,在这里与音视频领域一流工程师交流切磋。

阿里云社区.png

相关文章
|
6月前
|
存储 编解码 索引
了解FFmpeg音频通道布局结构:AVChannelLayout结构体解析
了解FFmpeg音频通道布局结构:AVChannelLayout结构体解析
229 1
|
6月前
|
编解码 Linux API
【FFmpeg 视频流处理】FFmpeg API深度解析:视频流画面合并、拼接与裁剪技巧
【FFmpeg 视频流处理】FFmpeg API深度解析:视频流画面合并、拼接与裁剪技巧
553 0
|
存储
QT+OpenGL 面剔除和帧缓冲
OpenGL能够检查所有面向(Front Facing)观察者的面,并且渲染他们,而丢弃那些背向的面,节省我们很多的片段着色器的调用。 我们需要告诉OpenGL哪些是正面,哪些是背面。逆时针是正面,顺时针是反面。
117 0
ffmpeg 截取视频片段
ffmpeg 截取视频片段
636 0
|
Java
剪裁NV21任意一部分的代码
剪裁NV21任意一部分的代码
122 0
【OpenGL】八、初始化 OpenGL 渲染环境 ( 导入 OpenGL 头文件 | 链接 OpenGL 库 | 将窗口设置为 OpenGL 窗口 | 设置像素格式描述符 | 渲染绘制 ) ★(二)
【OpenGL】八、初始化 OpenGL 渲染环境 ( 导入 OpenGL 头文件 | 链接 OpenGL 库 | 将窗口设置为 OpenGL 窗口 | 设置像素格式描述符 | 渲染绘制 ) ★(二)
192 0
【OpenGL】八、初始化 OpenGL 渲染环境 ( 导入 OpenGL 头文件 | 链接 OpenGL 库 | 将窗口设置为 OpenGL 窗口 | 设置像素格式描述符 | 渲染绘制 ) ★(二)
|
Linux
linux下使用QT调用FFMPEG读取摄像头一帧数据显示到标签控件上
linux下使用QT调用FFMPEG读取摄像头一帧数据显示到标签控件上
648 0
linux下使用QT调用FFMPEG读取摄像头一帧数据显示到标签控件上
|
存储 Windows
【OpenGL】八、初始化 OpenGL 渲染环境 ( 导入 OpenGL 头文件 | 链接 OpenGL 库 | 将窗口设置为 OpenGL 窗口 | 设置像素格式描述符 | 渲染绘制 ) ★(一)
【OpenGL】八、初始化 OpenGL 渲染环境 ( 导入 OpenGL 头文件 | 链接 OpenGL 库 | 将窗口设置为 OpenGL 窗口 | 设置像素格式描述符 | 渲染绘制 ) ★(一)
274 0