ffmpeg播放器实战(播放线程类)

简介: 播放线程类

1.构造函数

创建所用信息类,构建解码和渲染线程,并传入相关参数

关联相关槽函数

FPlayer::FPlayer(WIdid, QObject*parent): QObject{parent}
{
mDataInfo=newDataInfo(id);
mDecode=newDecode(mDataInfo);
mRender=newRender(mDataInfo);
mThreadD=newQThread();
mThreadR=newQThread();
mDecode->moveToThread(mThreadD);
mRender->moveToThread(mThreadR);
mThreadD->start();
mThreadR->start();
connect(this, &FPlayer::signalDecode, mDecode, &Decode::slotDecode, Qt::QueuedConnection);
connect(this, &FPlayer::signalRender, mRender, &Render::slotRender, Qt::QueuedConnection);
connect(mRender, &Render::signalProgress, this, &FPlayer::slotProgress, Qt::QueuedConnection);
connect(mRender, &Render::signalPlayStop, this, &FPlayer::slotPlayStop, Qt::QueuedConnection);
}

2.析构函数

作用:改变状态为停止,清空结构体

FPlayer::~FPlayer()
{
stop();
releaseHandle();
}
//停止voidFPlayer::stop()
{
mDataInfo->setPlayState(PLAY_STOP);
}
voidFPlayer::releaseHandle()
{
if (mSwrContext) {
swr_close(mSwrContext);
swr_free(&mSwrContext);
    }
if (mVideoCodecCtx) {
avcodec_free_context(&mVideoCodecCtx);
mVideoCodecCtx=nullptr;
    }
if (mAudioCodecCtx) {
avcodec_free_context(&mAudioCodecCtx);
mAudioCodecCtx=nullptr;
    }
if (mFormatCtx) {
avformat_close_input(&mFormatCtx);
mFormatCtx=nullptr;
    }
mVideoIndex=-1;
mAudioIndex=-1;
}

3.打开视频

boolFPlayer::open(QStringpath)
{
if (path.isEmpty())
returnfalse;
releaseHandle();
do {
mLastPath=path;
//创建解复用上下文mFormatCtx=avformat_alloc_context();
if (!mFormatCtx) {
qDebug() <<"avformat_alloc_context fail";
returnfalse;
        }
//打开文件if (avformat_open_input(&mFormatCtx, path.replace("/", "\\\\").toUtf8(), nullptr, nullptr) !=0) {
qDebug() <<"avformat_open_input fail";
returnfalse;
        }
//查找流数据信息if (avformat_find_stream_info(mFormatCtx, nullptr) <0) {
qDebug() <<"avformat_find_stream_info fail";
break;
        }
//查找视频流索引constAVCodec*videoCodec=nullptr;
constAVCodec*audioCodec=nullptr;
//参数说明://ic:指向 AVFormatContext 结构体的指针,表示输入的多媒体文件上下文。//type:表示所需的流类型,可以是 AVMEDIA_TYPE_AUDIO(音频流)、AVMEDIA_TYPE_VIDEO(视频流)或其他流类型。//wanted_stream_nb:表示期望的流索引,如果为负数,则查找所有流并返回第一个找到的流。//related_stream:表示关联的流索引,用于查找相关的流。 //-1 用于自动选择// decoder_ret:输出参数,返回找到的解码器。//flags:指定额外的搜索标志。mVideoIndex=av_find_best_stream(mFormatCtx, AVMEDIA_TYPE_VIDEO, mVideoIndex, -1, &videoCodec, 0);
mAudioIndex=av_find_best_stream(mFormatCtx, AVMEDIA_TYPE_AUDIO, mAudioIndex, -1, &audioCodec, 0);
if (mVideoIndex>=0) {
////创建解码器//其中,codec参数是一个指向AVCodec结构体的指针,//表示要为之分配AVCodecContext对象的编码器或解码器。//注意,该函数不会打开编码器或解码器,只是分配一个AVCodecContext对象,//并将其字段初始化为默认值。mVideoCodecCtx=avcodec_alloc_context3(videoCodec);
if (mVideoCodecCtx==nullptr) {
qDebug() <<"avcodec_alloc_context3 fail";
break;
            }
//填充解码器//avcodec_parameters_to_context 是 FFmpeg 库中的一个函数,//用于将 AVCodecParameters 结构体中的参数设置到 AVCodecContext 结构体中。//AVCodecParameters 结构体包含了音视频编解码器的参数信息,包括编码器类型、编码格式、帧率等。if (avcodec_parameters_to_context(mVideoCodecCtx, mFormatCtx->streams[mVideoIndex]->codecpar) <0) {
qDebug() <<"avcodec_parameters_to_context fail";
break;
            }
//打开解码器if (avcodec_open2(mVideoCodecCtx, videoCodec, nullptr) !=0) {
qDebug() <<"avcodec_open2 fail";
break;
            }
        }
AVSampleFormatoutSampleFormat=AV_SAMPLE_FMT_NONE; //输出采样位数if (mAudioIndex>=0) {
//创建解码器mAudioCodecCtx=avcodec_alloc_context3(audioCodec);
if (mAudioCodecCtx==nullptr) {
qDebug() <<"avcodec_alloc_context3 fail";
break;
            }
//填充解码器if (avcodec_parameters_to_context(mAudioCodecCtx, mFormatCtx->streams[mAudioIndex]->codecpar) <0) {
qDebug() <<"avcodec_parameters_to_context fail";
break;
            }
//打开解码器if (avcodec_open2(mAudioCodecCtx, audioCodec, nullptr) !=0) {
qDebug() <<"avcodec_open2 fail";
break;
            }
//转换器上下文mSwrContext=swr_alloc();
AVChannelLayoutinChannelLayout=mAudioCodecCtx->ch_layout;   //输入通道intinSampleRate=mAudioCodecCtx->sample_rate; //输入采样率AVSampleFormatinSampleFormat=mAudioCodecCtx->sample_fmt;  //输入采样位数AVChannelLayoutoutChannelLayout=mAudioCodecCtx->ch_layout;   //输出通道intoutSampleRate=mAudioCodecCtx->sample_rate; //输出采样率switch (mAudioCodecCtx->sample_fmt) {
caseAV_SAMPLE_FMT_U8P:
caseAV_SAMPLE_FMT_S16P:
caseAV_SAMPLE_FMT_S32P:
caseAV_SAMPLE_FMT_FLTP:
outSampleFormat= (AVSampleFormat)(mAudioCodecCtx->sample_fmt-5);
break;
caseAV_SAMPLE_FMT_DBLP:
outSampleFormat=AV_SAMPLE_FMT_FLT;
break;
caseAV_SAMPLE_FMT_S64P:
outSampleFormat=AV_SAMPLE_FMT_S32;
break;
default:
outSampleFormat=AV_SAMPLE_FMT_U8P;
break;
            }
//swr_alloc_set_opts2是一个函数或方法,用于进行音频重采样的参数设置。//后两个为日志参数if (swr_alloc_set_opts2(&mSwrContext,
&outChannelLayout,
outSampleFormat,
outSampleRate,
&inChannelLayout,
inSampleFormat,
inSampleRate,
0,
nullptr)
<0) {
qDebug() <<"swr_alloc_set_opts2 fail";
break;
            }
//初始化转换器swr_init(mSwrContext);
        }
if (mVideoIndex<0&&mAudioIndex<0) {
qDebug() <<"av_find_best_stream fail";
break;
        }
mDataInfo->updateInfo(mFormatCtx, mVideoCodecCtx, mAudioCodecCtx, mSwrContext, outSampleFormat, mVideoIndex, mAudioIndex);
mDataInfo->setPlayState(PLAY_OPEN);
emitsignalDecode();
returntrue;
    } while (0);
returnfalse;
}
boolFPlayer::play()
{
//初始化状态if (mDataInfo->getPlayState() ==PLAY_INIT) {
returnfalse;
//暂停状态则打开    } elseif (mDataInfo->getPlayState() ==PLAY_STOP) {
if (!open(mLastPath)) {
returnfalse;
        }
mDataInfo->setPlayState(PLAY_PLAY);
emitsignalRender();
//打开状态则播放    } elseif (mDataInfo->getPlayState() ==PLAY_OPEN) {
mDataInfo->setPlayState(PLAY_PLAY);
emitsignalRender();
//暂停状态则播放    } elseif (mDataInfo->getPlayState() ==PLAY_PAUSE) {
mDataInfo->setPlayState(PLAY_PLAY);
    }
returntrue;
}
//暂停voidFPlayer::pause()
{
mDataInfo->setPlayState(PLAY_PAUSE);
}
//停止voidFPlayer::stop()
{
mDataInfo->setPlayState(PLAY_STOP);
}
//跳转voidFPlayer::seek(longlongtime)
{
mDataInfo->setSeekTime(time);
}
//前进voidFPlayer::fastForward()
{
mDataInfo->setSeekForward(SEEK_FORWARD);
}
//后退voidFPlayer::fastBackward()
{
mDataInfo->setSeekForward(SEEK_BACKWARD);
}
//长度int64_tFPlayer::getLength()
{
returnmDataInfo->getLength();
}
voidFPlayer::getVideoSize(int&width, int&height)
{
width=mVideoCodecCtx->width;
height=mVideoCodecCtx->height;
}
//速度voidFPlayer::setPlaySpeed(intspeed)
{
mDataInfo->setPlaySpeed(speed);
}
intFPlayer::getPlaySpeed()
{
returnmDataInfo->getPlaySpeed();
}
//音量voidFPlayer::setPlayVolume(intvolume)
{
mDataInfo->setPlayVolume(volume);
}
intFPlayer::getPlayVolume()
{
returnmDataInfo->getPlayVolume();
}
voidFPlayer::setDecodeCache(intsize)
{
mDataInfo->setDecodeCache(size);
}
voidFPlayer::slotProgress(longlongtime)
{
emitsignalProgress(time);
}
voidFPlayer::slotPlayStop()
{
mDataInfo->setPlayState(PLAY_STOP);
emitsignalPLayStop();
}
相关文章
|
11月前
|
存储 SQL 安全
Java 无锁方式实现高性能线程实战操作指南
本文深入探讨了现代高并发Java应用中单例模式的实现方式,分析了传统单例(如DCL)的局限性,并提出了多种无锁实现方案。包括基于ThreadLocal的延迟初始化、VarHandle原子操作、Record不可变对象、响应式编程(Reactor)以及CDI依赖注入等实现方式。每种方案均附有代码示例及适用场景,同时通过JMH性能测试对比各实现的优劣。最后,结合实际案例设计了一个高性能配置中心,展示了无锁单例在实际开发中的应用。总结中提出根据场景选择合适的实现方式,并遵循现代单例设计原则以优化性能和安全性。文中还提供了代码获取链接,便于读者实践与学习。
224 0
|
12月前
|
设计模式 运维 监控
并发设计模式实战系列(4):线程池
需要建立持续的性能剖析(Profiling)和调优机制。通过以上十二个维度的系统化扩展,构建了一个从。设置合理队列容量/拒绝策略。动态扩容/优化任务处理速度。检查线程栈定位热点代码。调整最大用户进程数限制。CPU占用率100%
633 0
|
7月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
690 0
|
9月前
|
数据采集 消息中间件 并行计算
Python多线程与多进程性能对比:从原理到实战的深度解析
在Python编程中,多线程与多进程是提升并发性能的关键手段。本文通过实验数据、代码示例和通俗比喻,深入解析两者在不同任务类型下的性能表现,帮助开发者科学选择并发策略,优化程序效率。
688 1
|
11月前
|
算法 Java 测试技术
深度优化OSS上传性能:多线程分片上传 vs 断点续传实战对比
本文深入解析对象存储服务(OSS)文件上传性能优化技术,重点探讨多线程分片上传与断点续传两种方案。通过理论分析、代码实现和性能测试,对比其在不同场景下的表现差异,并提供选型建议与最佳实践,助力提升大文件上传效率与稳定性。
1020 0
|
11月前
|
数据采集 网络协议 前端开发
Python多线程爬虫模板:从原理到实战的完整指南
多线程爬虫通过并发请求大幅提升数据采集效率,适用于大规模网页抓取。本文详解其原理与实现,涵盖任务队列、线程池、会话保持、异常处理、反爬对抗等核心技术,并提供可扩展的Python模板代码,助力高效稳定的数据采集实践。
549 0
|
Java 调度 Python
多线程优化For循环:实战指南
本文介绍如何使用多线程优化For循环,提高程序处理大量数据或耗时操作的效率。通过并行任务处理,充分利用多核处理器性能,显著缩短执行时间。文中详细解释了多线程基础概念,如线程、进程、线程池等,并提供了Python代码示例,包括单线程、多线程和多进程实现方式。最后,还总结了使用多线程或多进程时需要注意的事项,如线程数量、任务拆分、共享资源访问及异常处理等。
606 7
|
数据采集 存储 安全
Python爬虫实战:利用短效代理IP爬取京东母婴纸尿裤数据,多线程池并行处理方案详解
本文分享了一套结合青果网络短效代理IP和多线程池技术的电商数据爬取方案,针对京东母婴纸尿裤类目商品信息进行高效采集。通过动态代理IP规避访问限制,利用多线程提升抓取效率,同时确保数据采集的安全性和合法性。方案详细介绍了爬虫开发步骤、网页结构分析及代码实现,适用于大规模电商数据采集场景。

热门文章

最新文章