ffmpeg播放器实战(播放线程类)

简介: 播放线程类

1.构造函数

创建所用信息类,构建解码和渲染线程,并传入相关参数

关联相关槽函数

FPlayer::FPlayer(WIdid, QObject*parent): QObject{parent}
{
mDataInfo=newDataInfo(id);
mDecode=newDecode(mDataInfo);
mRender=newRender(mDataInfo);
mThreadD=newQThread();
mThreadR=newQThread();
mDecode->moveToThread(mThreadD);
mRender->moveToThread(mThreadR);
mThreadD->start();
mThreadR->start();
connect(this, &FPlayer::signalDecode, mDecode, &Decode::slotDecode, Qt::QueuedConnection);
connect(this, &FPlayer::signalRender, mRender, &Render::slotRender, Qt::QueuedConnection);
connect(mRender, &Render::signalProgress, this, &FPlayer::slotProgress, Qt::QueuedConnection);
connect(mRender, &Render::signalPlayStop, this, &FPlayer::slotPlayStop, Qt::QueuedConnection);
}

2.析构函数

作用:改变状态为停止,清空结构体

FPlayer::~FPlayer()
{
stop();
releaseHandle();
}
//停止voidFPlayer::stop()
{
mDataInfo->setPlayState(PLAY_STOP);
}
voidFPlayer::releaseHandle()
{
if (mSwrContext) {
swr_close(mSwrContext);
swr_free(&mSwrContext);
    }
if (mVideoCodecCtx) {
avcodec_free_context(&mVideoCodecCtx);
mVideoCodecCtx=nullptr;
    }
if (mAudioCodecCtx) {
avcodec_free_context(&mAudioCodecCtx);
mAudioCodecCtx=nullptr;
    }
if (mFormatCtx) {
avformat_close_input(&mFormatCtx);
mFormatCtx=nullptr;
    }
mVideoIndex=-1;
mAudioIndex=-1;
}

3.打开视频

boolFPlayer::open(QStringpath)
{
if (path.isEmpty())
returnfalse;
releaseHandle();
do {
mLastPath=path;
//创建解复用上下文mFormatCtx=avformat_alloc_context();
if (!mFormatCtx) {
qDebug() <<"avformat_alloc_context fail";
returnfalse;
        }
//打开文件if (avformat_open_input(&mFormatCtx, path.replace("/", "\\\\").toUtf8(), nullptr, nullptr) !=0) {
qDebug() <<"avformat_open_input fail";
returnfalse;
        }
//查找流数据信息if (avformat_find_stream_info(mFormatCtx, nullptr) <0) {
qDebug() <<"avformat_find_stream_info fail";
break;
        }
//查找视频流索引constAVCodec*videoCodec=nullptr;
constAVCodec*audioCodec=nullptr;
//参数说明://ic:指向 AVFormatContext 结构体的指针,表示输入的多媒体文件上下文。//type:表示所需的流类型,可以是 AVMEDIA_TYPE_AUDIO(音频流)、AVMEDIA_TYPE_VIDEO(视频流)或其他流类型。//wanted_stream_nb:表示期望的流索引,如果为负数,则查找所有流并返回第一个找到的流。//related_stream:表示关联的流索引,用于查找相关的流。 //-1 用于自动选择// decoder_ret:输出参数,返回找到的解码器。//flags:指定额外的搜索标志。mVideoIndex=av_find_best_stream(mFormatCtx, AVMEDIA_TYPE_VIDEO, mVideoIndex, -1, &videoCodec, 0);
mAudioIndex=av_find_best_stream(mFormatCtx, AVMEDIA_TYPE_AUDIO, mAudioIndex, -1, &audioCodec, 0);
if (mVideoIndex>=0) {
////创建解码器//其中,codec参数是一个指向AVCodec结构体的指针,//表示要为之分配AVCodecContext对象的编码器或解码器。//注意,该函数不会打开编码器或解码器,只是分配一个AVCodecContext对象,//并将其字段初始化为默认值。mVideoCodecCtx=avcodec_alloc_context3(videoCodec);
if (mVideoCodecCtx==nullptr) {
qDebug() <<"avcodec_alloc_context3 fail";
break;
            }
//填充解码器//avcodec_parameters_to_context 是 FFmpeg 库中的一个函数,//用于将 AVCodecParameters 结构体中的参数设置到 AVCodecContext 结构体中。//AVCodecParameters 结构体包含了音视频编解码器的参数信息,包括编码器类型、编码格式、帧率等。if (avcodec_parameters_to_context(mVideoCodecCtx, mFormatCtx->streams[mVideoIndex]->codecpar) <0) {
qDebug() <<"avcodec_parameters_to_context fail";
break;
            }
//打开解码器if (avcodec_open2(mVideoCodecCtx, videoCodec, nullptr) !=0) {
qDebug() <<"avcodec_open2 fail";
break;
            }
        }
AVSampleFormatoutSampleFormat=AV_SAMPLE_FMT_NONE; //输出采样位数if (mAudioIndex>=0) {
//创建解码器mAudioCodecCtx=avcodec_alloc_context3(audioCodec);
if (mAudioCodecCtx==nullptr) {
qDebug() <<"avcodec_alloc_context3 fail";
break;
            }
//填充解码器if (avcodec_parameters_to_context(mAudioCodecCtx, mFormatCtx->streams[mAudioIndex]->codecpar) <0) {
qDebug() <<"avcodec_parameters_to_context fail";
break;
            }
//打开解码器if (avcodec_open2(mAudioCodecCtx, audioCodec, nullptr) !=0) {
qDebug() <<"avcodec_open2 fail";
break;
            }
//转换器上下文mSwrContext=swr_alloc();
AVChannelLayoutinChannelLayout=mAudioCodecCtx->ch_layout;   //输入通道intinSampleRate=mAudioCodecCtx->sample_rate; //输入采样率AVSampleFormatinSampleFormat=mAudioCodecCtx->sample_fmt;  //输入采样位数AVChannelLayoutoutChannelLayout=mAudioCodecCtx->ch_layout;   //输出通道intoutSampleRate=mAudioCodecCtx->sample_rate; //输出采样率switch (mAudioCodecCtx->sample_fmt) {
caseAV_SAMPLE_FMT_U8P:
caseAV_SAMPLE_FMT_S16P:
caseAV_SAMPLE_FMT_S32P:
caseAV_SAMPLE_FMT_FLTP:
outSampleFormat= (AVSampleFormat)(mAudioCodecCtx->sample_fmt-5);
break;
caseAV_SAMPLE_FMT_DBLP:
outSampleFormat=AV_SAMPLE_FMT_FLT;
break;
caseAV_SAMPLE_FMT_S64P:
outSampleFormat=AV_SAMPLE_FMT_S32;
break;
default:
outSampleFormat=AV_SAMPLE_FMT_U8P;
break;
            }
//swr_alloc_set_opts2是一个函数或方法,用于进行音频重采样的参数设置。//后两个为日志参数if (swr_alloc_set_opts2(&mSwrContext,
&outChannelLayout,
outSampleFormat,
outSampleRate,
&inChannelLayout,
inSampleFormat,
inSampleRate,
0,
nullptr)
<0) {
qDebug() <<"swr_alloc_set_opts2 fail";
break;
            }
//初始化转换器swr_init(mSwrContext);
        }
if (mVideoIndex<0&&mAudioIndex<0) {
qDebug() <<"av_find_best_stream fail";
break;
        }
mDataInfo->updateInfo(mFormatCtx, mVideoCodecCtx, mAudioCodecCtx, mSwrContext, outSampleFormat, mVideoIndex, mAudioIndex);
mDataInfo->setPlayState(PLAY_OPEN);
emitsignalDecode();
returntrue;
    } while (0);
returnfalse;
}
boolFPlayer::play()
{
//初始化状态if (mDataInfo->getPlayState() ==PLAY_INIT) {
returnfalse;
//暂停状态则打开    } elseif (mDataInfo->getPlayState() ==PLAY_STOP) {
if (!open(mLastPath)) {
returnfalse;
        }
mDataInfo->setPlayState(PLAY_PLAY);
emitsignalRender();
//打开状态则播放    } elseif (mDataInfo->getPlayState() ==PLAY_OPEN) {
mDataInfo->setPlayState(PLAY_PLAY);
emitsignalRender();
//暂停状态则播放    } elseif (mDataInfo->getPlayState() ==PLAY_PAUSE) {
mDataInfo->setPlayState(PLAY_PLAY);
    }
returntrue;
}
//暂停voidFPlayer::pause()
{
mDataInfo->setPlayState(PLAY_PAUSE);
}
//停止voidFPlayer::stop()
{
mDataInfo->setPlayState(PLAY_STOP);
}
//跳转voidFPlayer::seek(longlongtime)
{
mDataInfo->setSeekTime(time);
}
//前进voidFPlayer::fastForward()
{
mDataInfo->setSeekForward(SEEK_FORWARD);
}
//后退voidFPlayer::fastBackward()
{
mDataInfo->setSeekForward(SEEK_BACKWARD);
}
//长度int64_tFPlayer::getLength()
{
returnmDataInfo->getLength();
}
voidFPlayer::getVideoSize(int&width, int&height)
{
width=mVideoCodecCtx->width;
height=mVideoCodecCtx->height;
}
//速度voidFPlayer::setPlaySpeed(intspeed)
{
mDataInfo->setPlaySpeed(speed);
}
intFPlayer::getPlaySpeed()
{
returnmDataInfo->getPlaySpeed();
}
//音量voidFPlayer::setPlayVolume(intvolume)
{
mDataInfo->setPlayVolume(volume);
}
intFPlayer::getPlayVolume()
{
returnmDataInfo->getPlayVolume();
}
voidFPlayer::setDecodeCache(intsize)
{
mDataInfo->setDecodeCache(size);
}
voidFPlayer::slotProgress(longlongtime)
{
emitsignalProgress(time);
}
voidFPlayer::slotPlayStop()
{
mDataInfo->setPlayState(PLAY_STOP);
emitsignalPLayStop();
}
相关文章
|
3月前
|
JSON 网络协议 安全
【Java】(10)进程与线程的关系、Tread类;讲解基本线程安全、网络编程内容;JSON序列化与反序列化
几乎所有的操作系统都支持进程的概念,进程是处于运行过程中的程序,并且具有一定的独立功能,进程是系统进行资源分配和调度的一个独立单位一般而言,进程包含如下三个特征。独立性动态性并发性。
232 1
|
3月前
|
JSON 网络协议 安全
【Java基础】(1)进程与线程的关系、Tread类;讲解基本线程安全、网络编程内容;JSON序列化与反序列化
几乎所有的操作系统都支持进程的概念,进程是处于运行过程中的程序,并且具有一定的独立功能,进程是系统进行资源分配和调度的一个独立单位一般而言,进程包含如下三个特征。独立性动态性并发性。
246 1
|
安全 Java
Java多线程集合类
本文介绍了Java中线程安全的问题及解决方案。通过示例代码展示了使用`CopyOnWriteArrayList`、`CopyOnWriteArraySet`和`ConcurrentHashMap`来解决多线程环境下集合操作的线程安全问题。这些类通过不同的机制确保了线程安全,提高了并发性能。
228 1
【JavaEE】——多线程常用类
Callable的call方法,FutureTask类,ReentrantLock可重入锁和对比,Semaphore信号量(PV操作)CountDownLatch锁存器,
|
Java 程序员 调度
【JavaEE】线程创建和终止,Thread类方法,变量捕获(7000字长文)
创建线程的五种方式,Thread常见方法(守护进程.setDaemon() ,isAlive),start和run方法的区别,如何提前终止一个线程,标志位,isinterrupted,变量捕获
|
安全 Java API
【JavaEE】多线程编程引入——认识Thread类
Thread类,Thread中的run方法,在编程中怎么调度多线程
|
Java 开发者
在Java多线程编程中,创建线程的方法有两种:继承Thread类和实现Runnable接口
【10月更文挑战第20天】在Java多线程编程中,创建线程的方法有两种:继承Thread类和实现Runnable接口。本文揭示了这两种方式的微妙差异和潜在陷阱,帮助你更好地理解和选择适合项目需求的线程创建方式。
278 3
|
Java
在Java多线程编程中,实现Runnable接口通常优于继承Thread类
【10月更文挑战第20天】在Java多线程编程中,实现Runnable接口通常优于继承Thread类。原因包括:1) Java只支持单继承,实现接口不受此限制;2) Runnable接口便于代码复用和线程池管理;3) 分离任务与线程,提高灵活性。因此,实现Runnable接口是更佳选择。
284 2
|
Java
Java中多线程编程的基本概念和创建线程的两种主要方式:继承Thread类和实现Runnable接口
【10月更文挑战第20天】《JAVA多线程深度解析:线程的创建之路》介绍了Java中多线程编程的基本概念和创建线程的两种主要方式:继承Thread类和实现Runnable接口。文章详细讲解了每种方式的实现方法、优缺点及适用场景,帮助读者更好地理解和掌握多线程编程技术,为复杂任务的高效处理奠定基础。
231 2
|
Java 开发者
Java多线程初学者指南:介绍通过继承Thread类与实现Runnable接口两种方式创建线程的方法及其优缺点
【10月更文挑战第20天】Java多线程初学者指南:介绍通过继承Thread类与实现Runnable接口两种方式创建线程的方法及其优缺点,重点解析为何实现Runnable接口更具灵活性、资源共享及易于管理的优势。
352 1