同步播放音视频的时候,《FFmpeg开发实战:从零基础到短视频上线》一书第10章的示例程序playsync.c采取一边遍历一边播放的方式,在源文件的音频流和视频流交错读取的情况下,该方式可以很好地实现同步播放功能。
但个别格式的音频流和视频流是分开存储的,前面一大段放了所有的音频帧,后面一大段放了所有的视频帧,并非音频帧与视频帧交错存储的模式。对于这种格式,playsync.c播放时先放完所有的声音,这期间画面是空白的;再快速放完所有的视频画面,这期间没有声音,显然播放过程是有问题的。
若想纠正playsync.c的播放问题,就得重新设计音视频的同步播放机制,不能采取一边遍历一边播放的方式,而要先把音频帧和视频帧都读到缓存队列中,再依次检查音频与视频的时间戳,从而决定在哪个时刻才播放对应时间戳的音视频。具体到代码实现上,需要补充下列几点改造。
1、除了已有的视频处理线程和视频包队列之外,还要增加声明音频处理线程和音频包队列,当然音频包队列配套的队列锁也要补充声明。增补后的声明代码如下所示:
SDL_mutex *audio_list_lock = NULL; // 声明一个音频包队列锁,防止线程间同时操作包队列
SDL_Thread *audio_thread = NULL; // 声明一个音频处理线程
PacketQueue packet_audio_list; // 存放音频包的队列
SDL_mutex *video_list_lock = NULL; // 声明一个视频包的队列锁,防止线程间同时操作包队列
SDL_Thread *video_thread = NULL; // 声明一个视频处理线程
PacketQueue packet_video_list; // 存放视频包的队列
2、在程序初始化的时候,不但要创建视频处理线程和视频队列的互斥锁,还要创建音频处理线程和音频队列的互斥锁。修改后的初始化代码如下所示:
audio_list_lock = SDL_CreateMutex(); // 创建互斥锁,用于调度队列
// 创建SDL线程,指定任务处理函数,并返回线程编号
audio_thread = SDL_CreateThread(thread_work_audio, "thread_work_audio", NULL);
if (!audio_thread) {
av_log(NULL, AV_LOG_ERROR, "sdl create audio thread occur error\n");
return -1;
}
video_list_lock = SDL_CreateMutex(); // 创建互斥锁,用于调度队列
// 创建SDL线程,指定任务处理函数,并返回线程编号
video_thread = SDL_CreateThread(thread_work_video, "thread_work_video", NULL);
if (!video_thread) {
av_log(NULL, AV_LOG_ERROR, "sdl create video thread occur error\n");
return -1;
}
3、对音视频文件遍历数据包时,不能立即渲染音频,而要把音频包加入音频队列,把视频包加入视频队列,由两个处理线程根据时间戳来调度具体的播放进度。另外,在所有数据包都遍历完之后,视频包队列可能还有剩余的数据,所以程序末尾得轮询视频包队列,直至所有视频帧都渲染结束才算完成播放。据此修改音视频文件的遍历与轮询代码如下所示:
while (av_read_frame(in_fmt_ctx, packet) >= 0) { // 轮询数据包
if (packet->stream_index == audio_index) { // 音频包需要解码
SDL_LockMutex(audio_list_lock); // 对音频队列锁加锁
push_packet(&packet_audio_list, *packet); // 把音频包加入队列
SDL_UnlockMutex(audio_list_lock); // 对音频队列锁解锁
} else if (packet->stream_index == video_index) { // 视频包需要解码
SDL_LockMutex(video_list_lock); // 对视频队列锁加锁
push_packet(&packet_video_list, *packet); // 把视频包加入队列
SDL_UnlockMutex(video_list_lock); // 对视频队列锁解锁
if (!has_audio) { // 不存在音频流
SDL_Delay(interval); // 延迟若干时间,单位毫秒
}
}
if (play_video_frame() == -1) { // 播放视频画面
goto __QUIT;
}
}
while (!is_empty(packet_video_list)) { // 播放剩余的视频画面
if (play_video_frame() == -1) {
goto __QUIT;
}
SDL_Delay(5); // 延迟若干时间,单位毫秒
}
除了上述的三大块改造,尚有下面四个函数要补充修改:
thread_work_audio函数:这是音频处理线程新增的工作函数,主要从音频包队列取数据,然后解码为音频帧再重采样,并将重采样的结果数据送给扬声器。
thread_work_video函数:这是视频处理线程原有的工作函数,除了给视频包队列及其对应的互斥锁改名之外,其他代码照搬即可。
play_video_frame函数:这是播放视频画面的新增函数,就是把原来SDL渲染画面的代码块重新包装成独立的函数,方便多次调用罢了。
release函数:这是释放音视频资源的函数,与之前的释放代码相比,主要增加了音频处理线程的等待操作,以及音频队列锁的销毁操作。
上述修改后的代码已经附在了《FFmpeg开发实战:从零基础到短视频上线》一书第10章的源码chapter10/playsync2.c,这个c代码是playsync.c的改进版,能够正常播放音频流和视频流分开存储的视频文件。
接着执行下面的编译命令。
gcc playsync2.c -o playsync2 -I/usr/local/ffmpeg/include -L/usr/local/ffmpeg/lib -I/usr/local/sdl2/include -L/usr/local/sdl2/lib -lsdl2 -lavformat -lavdevice -lavfilter -lavcodec -lavutil -lswscale -lswresample -lpostproc -lm
编译完成后执行以下命令启动测试程序,期望播放视频文件fuzhou.mp4。
./playsync2 ../fuzhou.mp4
程序运行完毕,发现控制台输出以下的日志信息。
Success open input_file ../fuzhou.mp4.
out_sample_rate=44100, out_nb_samples=1024
thread_work_video
video_index 0
thread_work_audio
audio_index 0
……
9216 10240 11264 12288 13312 14336 15360 16384 17408 18432 19456 20480 21504 22528 23552 24576 25600 26624 27648 28672 29696 30720 31744 32768 33792 34816 35840 36864 37888 38912 39936 ……
Close window.
begin release audio resource
audio_thread audio_status=0
end release audio resource
begin release video resource
video_thread video_status=0
end release video resource
Quit SDL.
同时弹出SDL窗口播放视频画面,并且扬声器传来了阵阵歌声,表示上述代码正确实现了同步播放音视频的功能。