FFmpeg开发笔记(十九)FFmpeg开启两个线程分别解码音视频

简介: 《FFmpeg开发实战》第10章示例playsync.c在处理音频流和视频流交错的文件时能实现同步播放,但对于分开存储的格式,会出现先播放全部声音再快速播放视频的问题。为解决此问题,需改造程序,增加音频处理线程和队列,以及相关锁,先将音视频帧读入缓存,再按时间戳播放。改造包括声明新变量、初始化线程和锁、修改数据包处理方式等。代码修改后在playsync2.c中,编译运行成功,控制台显示日志,SDL窗口播放视频并同步音频,证明改造有效。

同步播放音视频的时候,《FFmpeg开发实战:从零基础到短视频上线》一书第10章的示例程序playsync.c采取一边遍历一边播放的方式,在源文件的音频流和视频流交错读取的情况下,该方式可以很好地实现同步播放功能。

但个别格式的音频流和视频流是分开存储的,前面一大段放了所有的音频帧,后面一大段放了所有的视频帧,并非音频帧与视频帧交错存储的模式。对于这种格式,playsync.c播放时先放完所有的声音,这期间画面是空白的;再快速放完所有的视频画面,这期间没有声音,显然播放过程是有问题的。
若想纠正playsync.c的播放问题,就得重新设计音视频的同步播放机制,不能采取一边遍历一边播放的方式,而要先把音频帧和视频帧都读到缓存队列中,再依次检查音频与视频的时间戳,从而决定在哪个时刻才播放对应时间戳的音视频。具体到代码实现上,需要补充下列几点改造。
1、除了已有的视频处理线程和视频包队列之外,还要增加声明音频处理线程和音频包队列,当然音频包队列配套的队列锁也要补充声明。增补后的声明代码如下所示:

SDL_mutex *audio_list_lock = NULL; // 声明一个音频包队列锁,防止线程间同时操作包队列
SDL_Thread *audio_thread = NULL; // 声明一个音频处理线程
PacketQueue packet_audio_list; // 存放音频包的队列
SDL_mutex *video_list_lock = NULL; // 声明一个视频包的队列锁,防止线程间同时操作包队列
SDL_Thread *video_thread = NULL; // 声明一个视频处理线程
PacketQueue packet_video_list; // 存放视频包的队列

2、在程序初始化的时候,不但要创建视频处理线程和视频队列的互斥锁,还要创建音频处理线程和音频队列的互斥锁。修改后的初始化代码如下所示:

audio_list_lock = SDL_CreateMutex(); // 创建互斥锁,用于调度队列
// 创建SDL线程,指定任务处理函数,并返回线程编号
audio_thread = SDL_CreateThread(thread_work_audio, "thread_work_audio", NULL);
if (!audio_thread) {
    av_log(NULL, AV_LOG_ERROR, "sdl create audio thread occur error\n");
    return -1;
}
video_list_lock = SDL_CreateMutex(); // 创建互斥锁,用于调度队列
// 创建SDL线程,指定任务处理函数,并返回线程编号
video_thread = SDL_CreateThread(thread_work_video, "thread_work_video", NULL);
if (!video_thread) {
    av_log(NULL, AV_LOG_ERROR, "sdl create video thread occur error\n");
    return -1;
}

3、对音视频文件遍历数据包时,不能立即渲染音频,而要把音频包加入音频队列,把视频包加入视频队列,由两个处理线程根据时间戳来调度具体的播放进度。另外,在所有数据包都遍历完之后,视频包队列可能还有剩余的数据,所以程序末尾得轮询视频包队列,直至所有视频帧都渲染结束才算完成播放。据此修改音视频文件的遍历与轮询代码如下所示:

while (av_read_frame(in_fmt_ctx, packet) >= 0) { // 轮询数据包
    if (packet->stream_index == audio_index) { // 音频包需要解码
        SDL_LockMutex(audio_list_lock); // 对音频队列锁加锁
        push_packet(&packet_audio_list, *packet); // 把音频包加入队列
        SDL_UnlockMutex(audio_list_lock); // 对音频队列锁解锁
    } else if (packet->stream_index == video_index) { // 视频包需要解码
        SDL_LockMutex(video_list_lock); // 对视频队列锁加锁
        push_packet(&packet_video_list, *packet); // 把视频包加入队列
        SDL_UnlockMutex(video_list_lock); // 对视频队列锁解锁
        if (!has_audio) { // 不存在音频流
            SDL_Delay(interval); // 延迟若干时间,单位毫秒
        }
    }
    if (play_video_frame() == -1) { // 播放视频画面
        goto __QUIT;
    }
}
while (!is_empty(packet_video_list)) { // 播放剩余的视频画面
    if (play_video_frame() == -1) {
        goto __QUIT;
    }
    SDL_Delay(5); // 延迟若干时间,单位毫秒
}

除了上述的三大块改造,尚有下面四个函数要补充修改:
thread_work_audio函数:这是音频处理线程新增的工作函数,主要从音频包队列取数据,然后解码为音频帧再重采样,并将重采样的结果数据送给扬声器。
thread_work_video函数:这是视频处理线程原有的工作函数,除了给视频包队列及其对应的互斥锁改名之外,其他代码照搬即可。
play_video_frame函数:这是播放视频画面的新增函数,就是把原来SDL渲染画面的代码块重新包装成独立的函数,方便多次调用罢了。
release函数:这是释放音视频资源的函数,与之前的释放代码相比,主要增加了音频处理线程的等待操作,以及音频队列锁的销毁操作。
上述修改后的代码已经附在了《FFmpeg开发实战:从零基础到短视频上线》一书第10章的源码chapter10/playsync2.c,这个c代码是playsync.c的改进版,能够正常播放音频流和视频流分开存储的视频文件。
接着执行下面的编译命令。

gcc playsync2.c -o playsync2 -I/usr/local/ffmpeg/include -L/usr/local/ffmpeg/lib -I/usr/local/sdl2/include -L/usr/local/sdl2/lib -lsdl2 -lavformat -lavdevice -lavfilter -lavcodec -lavutil -lswscale -lswresample -lpostproc -lm

编译完成后执行以下命令启动测试程序,期望播放视频文件fuzhou.mp4。

./playsync2 ../fuzhou.mp4

程序运行完毕,发现控制台输出以下的日志信息。

Success open input_file ../fuzhou.mp4.
out_sample_rate=44100, out_nb_samples=1024
thread_work_video
video_index 0
thread_work_audio
audio_index 0
……
9216 10240 11264 12288 13312 14336 15360 16384 17408 18432 19456 20480 21504 22528 23552 24576 25600 26624 27648 28672 29696 30720 31744 32768 33792 34816 35840 36864 37888 38912 39936 ……
Close window.
begin release audio resource
audio_thread audio_status=0
end release audio resource
begin release video resource
video_thread video_status=0
end release video resource
Quit SDL.

同时弹出SDL窗口播放视频画面,并且扬声器传来了阵阵歌声,表示上述代码正确实现了同步播放音视频的功能。

目录
相关文章
|
22天前
|
安全 Java 编译器
深入理解PHP 8.0新特性及其对开发的影响Java中的多线程编程:从理论到实践
【5月更文挑战第27天】在这篇文章中,我们将详细探讨PHP 8.0的新特性以及它们如何影响开发者的工作流程。我们将深入研究这些新特性,包括JIT编译器,联合类型,命名参数,以及更多的错误处理机制。我们还将讨论这些新特性如何提高代码的可读性和性能,以及它们如何改变我们编写和维护PHP应用程序的方式。 【5月更文挑战第27天】在现代计算机科学中,多线程编程是一个重要的概念,它允许多个线程在同一时间内运行,从而提高了程序的效率和性能。本文将深入探讨Java中的多线程编程,包括其理论基础,实现方法,以及一些常见的问题和解决方案。我们将通过实例来理解如何创建和管理线程,以及如何使用Java的并发工具来
|
2天前
|
编解码 Windows
FFmpeg开发笔记(二十九)Windows环境给FFmpeg集成libxvid
XviD是开源MPEG-4视频编码器,与DivX相似但后者非开源。早期MP4常使用XviD或DivX编码,现已被H.264取代。在Windows上集成FFmpeg的XviD编解码库libxvid,需访问<https://labs.xvid.com/source/>下载源码,解压后在MSYS环境中配置、编译和安装。之后重新配置FFmpeg,启用libxvid并编译安装。详细步骤包括configure命令、make和make install。成功后,通过`ffmpeg -version`检查是否启用libxvid。更多音视频开发技术可参考《FFmpeg开发实战:从零基础到短视频上线》。
23 0
FFmpeg开发笔记(二十九)Windows环境给FFmpeg集成libxvid
|
3天前
|
编解码 Linux
FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid
XviD是开源的MPEG-4视频编解码器,曾与DivX一起用于早期MP4视频编码,但现在已被H.264取代。要集成XviD到Linux上的FFmpeg,首先下载源码,解压后配置并编译安装libxvid。接着,在FFmpeg源码目录中,重新配置FFmpeg以启用libxvid,然后编译并安装。成功后,通过`ffmpeg -version`检查是否启用libxvid。详细步骤包括下载、解压libxvid,使用`configure`和`make`命令安装,以及更新FFmpeg配置并安装。
13 2
FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid
|
4天前
|
存储 编解码 Linux
rodert教你学FFmpeg实战这一篇就够了 - 音视频处理入门篇
rodert教你学FFmpeg实战这一篇就够了 - 音视频处理入门篇
18 1
|
8天前
|
移动开发 小程序 视频直播
FFmpeg开发笔记(二十七)解决APP无法访问ZLMediaKit的直播链接问题
本文讲述了在使用ZLMediaKit进行视频直播时,遇到移动端通过ExoPlayer和微信小程序播放HLS直播地址失败的问题。错误源于ZLMediaKit对HTTP地址的Cookie校验导致401无权限响应。通过修改ZLMediaKit源码,注释掉相关鉴权代码并重新编译安装,解决了此问题,使得ExoPlayer和小程序能成功播放HLS视频。详细解决方案及FFmpeg集成可参考《FFmpeg开发实战:从零基础到短视频上线》一书。
17 3
FFmpeg开发笔记(二十七)解决APP无法访问ZLMediaKit的直播链接问题
|
9天前
|
Web App开发 安全 Linux
FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流
《FFmpeg开发实战》书中介绍轻量级流媒体服务器MediaMTX,但其功能有限,不适合生产环境。推荐使用国产开源的ZLMediaKit,它支持多种流媒体协议和音视频编码标准。以下是华为欧拉系统下编译安装ZLMediaKit和FFmpeg的步骤,包括更新依赖、下载源码、配置、编译、安装以及启动MediaServer服务。此外,还提供了通过FFmpeg进行RTSP和RTMP推流,并使用VLC播放器拉流的示例。
22 3
FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流
|
10天前
|
编解码 Linux
FFmpeg开发笔记(二十五)Linux环境给FFmpeg集成libwebp
《FFmpeg开发实战》书中指导如何在Linux环境下为FFmpeg集成libwebp以支持WebP图片编解码。首先,从GitHub下载libwebp源码,解压后通过`libtoolize`,`autogen.sh`,`configure`,`make -j4`和`make install`步骤安装。接着,在FFmpeg源码目录中重新配置并添加`--enable-libwebp`选项,然后进行`make clean`,`make -j4`和`make install`以编译安装FFmpeg。最后,验证FFmpeg版本信息确认libwebp已启用。
17 1
FFmpeg开发笔记(二十五)Linux环境给FFmpeg集成libwebp
|
16天前
|
Linux 编解码 Python
FFmpeg开发笔记(二十四)Linux环境给FFmpeg集成AV1的编解码器
AV1是一种高效免费的视频编码标准,由AOM联盟制定,相比H.265压缩率提升约27%。各大流媒体平台倾向使用AV1。本文介绍了如何在Linux环境下为FFmpeg集成AV1编解码库libaom、libdav1d和libsvtav1。涉及下载源码、配置、编译和安装步骤,包括设置环境变量以启用这三个库。
37 3
FFmpeg开发笔记(二十四)Linux环境给FFmpeg集成AV1的编解码器
|
17天前
|
编解码 Linux iOS开发
FFmpeg开发笔记(二十三)使用OBS Studio开启RTMP直播推流
OBS(Open Broadcaster Software)是一款开源、跨平台的直播和和Linux。官网为<https://obsproject.com/>。要使用OBS进行直播,需执行四步:1) 下载并安装OBS Studio(<https://obsproject.com/download>),2) 启动流媒体服务器如MediaMTX,生成RTMP推流地址,3) 打开OBS Studio,设置直播服务为自定义RTMP服务器(127.0.0.1:1935/stream),调整视频分辨率,4) 添加视频来源并开始直播。同时,通过FFmpeg的拉流程序验证直播功能正常。
30 4
FFmpeg开发笔记(二十三)使用OBS Studio开启RTMP直播推流
|
22天前
FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比
《FFmpeg开发实战》书中指出,视频宽高处理需考虑采样宽高比(SAR),像素宽高比(PAR)和显示宽高比(DAR)。SAR对应AVCodecParameters的sample_aspect_ratio,PAR为width/height。当SAR的num与den不为1时,需计算DAR以正确显示视频。书中提供了转换公式和代码示例,通过SAR或DAR调整视频尺寸。在修正后的playsync2.c程序中,成功调整了meg.vob视频的比例,实现了正确的画面显示。
41 0
FFmpeg开发笔记(二十二)FFmpeg中SAR与DAR的显示宽高比

热门文章

最新文章