开发背景
2015年,我们在做移动单兵应急指挥项目的时候,推送端采用了RTMP方案,这在当时算是介入RTMP比较早的了,RTMP推送模块做好以后,我们找了市面上VLC还有Vitamio,来测试整体延迟,实际效果真的不尽人意,大家知道,应急指挥系统,除了稳定性外,对延迟有很高的要求,几秒钟(>3-5秒)的延迟,是我们接受不了的,VLC之类播放器,虽然功能庞大,点播体验可满足大多场景诉求,直播场景确实不尽人意。
为此,我们萌生了开发个适应低延迟场景下RTMP播放器的想法,并从Windows平台着手,考虑到现有开源播放器大而全的设计,并不适应直播场景,加之时间充裕,我们开始着手自研框架的RTMP播放器设计,初版发布,延迟已在毫秒级,这在当时,哪怕是现在,确实是值得欣慰的一件事。
整体方案架构
RTMP直播播放器,目标很明确,从RTMP服务器(自建服务器或CDN)拉取流数据,完成数据解析、解码、音视频数据同步、绘制工作。
具体对应下图“接收端”部分:
首版设计目标
- 自有框架,易于扩展;
- 支持各种异常网络状态处理,如断网重连等;
- 有Event状态回调,确保开发者可以了解到播放端整体的状态;
- 支持多实例播放;
- 视频支持H.264,音频支持AAC/PCMA/PCMU;
- 支持缓冲时间设置(buffer time);
- 支持音视频同步;
- 支持实时静音。
经过迭代后的功能
- [支持播放协议]RTMP毫秒级延迟(低延迟下200-400ms);
- [多实例播放]支持多实例播放(CPU占用更低);
- [事件回调]支持网络状态、buffer状态等回调;
- [视频格式]支持RTMP扩展H.265,H.264;
- [音频格式]支持AAC/PCMA/PCMU/Speex;
- [H.264/H.265软解码]支持H.264/H.265软解;
- [H.264硬解码]Windows/Android/iOS支持H.264硬解;
- [H.265硬解]Windows/Android/iOS支持H.265硬解;
- [H.264/H.265硬解码]Android支持设置Sur face模式硬解和普通模式硬解码;
- [缓冲时间设置]支持buffer time设置;
- [首屏秒开]支持首屏秒开模式(RTMP服务器缓存GOP的情况);
- [低延迟模式]支持超低延迟模式设置(公网200~400ms);
- [复杂网络处理]支持断网重连等各种网络环境自动适配;
- [快速切换URL]支持播放过程中,快速切换其他URL,内容切换更快;
- [音视频多种render机制]Android平台,视频:sur faceview/OpenGL ES,音频:AudioTrack/OpenSL ES;
- [实时静音]支持播放过程中,实时静音/取消静音;
- [实时音量调节]支持播放过程中,实时调节播放音量,调节范围[0, 100];
- [实时快照]支持播放过程中截取当前视频帧画面;
- [只播关键帧]Windows平台支持实时设置是否只播放关键帧;
- [渲染角度]支持0°,90°,180°和270°四个视频画面渲染角度设置;
- [渲染镜像]支持水平反转、垂直反转模式设置;
- [实时下载速度更新]支持当前下载速度实时回调(支持设置回调时间间隔);
- [ARGB叠加]Windows平台支持ARGB图像叠加到显示视频(参看C++的DEMO);
- [解码前视频数据回调]支持H.264/H.265数据回调;
- [解码后视频数据回调]支持解码后YUV/RGB数据回调;
- [解码后视频数据缩放回调]Windows平台支持指定回调图像大小的接口(可以对原视图像缩放后再回调到上层);
- [解码前音频数据回调]支持AAC/PCMA/PCMU/SPEEX数据回调;
- [音视频自适应]支持播放过程中,音视频信息改变后自适应;
- [扩展录像功能]支持RTMP H.264、扩展H.265流录制,支持PCMA/PCMU/Speex转AAC后录制,支持设置只录制音频或视频等;
接口设计
Windows平台我们是C接口,对外提供C++和C#调用示例,本文就以C++的demo为例,大概介绍下常用的接口设计。
1. Init/UnInit()接口
Init和UnInit接口,在多个播放实例启动的时候,也仅需调用一次,做基础的初始化/反初始化操作。
/*flag目前传0,后面扩展用, pReserve传NULL,扩展用,成功返回 NT_ERC_OK*/NT_UINT32(NT_API*Init)(NT_UINT32flag, NT_PVOIDpReserve); /*这个是最后一个调用的接口成功返回 NT_ERC_OK*/NT_UINT32(NT_API*UnInit)();
2. Open/Close()接口
Open接口的目的,主要是创建实例,正常返回player实例句柄,如有多路播放诉求,创建多个实例即可。
Close接口,和Open()接口对应,负责释放相应实例的资源,调用Close()接口后,记得实例句柄置0。
注意:比如一个实例既可以实现播放,又可同时录像,亦或拉流(转发),这种情况下,调Close()接口时,需要确保录像、拉流都正常停止后,再调用。
/*flag目前传0,后面扩展用, pReserve传NULL,扩展用,NT_HWND hwnd, 绘制画面用的窗口, 可以设置为NULL获取Handle成功返回 NT_ERC_OK*/NT_UINT32(NT_API*Open)(NT_PHANDLEpHandle, NT_HWNDhwnd, NT_UINT32flag, NT_PVOIDpReserve); /*调用这个接口之后handle失效,成功返回 NT_ERC_OK*/NT_UINT32(NT_API*Close)(NT_HANDLEhandle);
3. 网络状态回调
一个好的播放器,好的状态回调必不可少,比如网络连通状态、快照、录像状态、当前下载速度等实时反馈,可以让上层开发者更好的掌控播放端状态,给用户更好的播放体验。
/*设置事件回调,如果想监听事件的话,建议调用Open成功后,就调用这个接口*/NT_UINT32(NT_API*SetEventCallBack)(NT_HANDLEhandle, NT_PVOIDcall_back_data, NT_SP_SDKEventCallBackcall_back);
demo实现实例:
LRESULTCSmartPlayerDlg::OnSDKEvent(WPARAMwParam, LPARAMlParam){ if (!is_playing_&&!is_recording_) { returnS_OK; } NT_UINT32event_id= (NT_UINT32)(wParam); if ( NT_SP_E_EVENT_ID_PLAYBACK_REACH_EOS==event_id ) { StopPlayback(); returnS_OK; } elseif ( NT_SP_E_EVENT_ID_RECORDER_REACH_EOS==event_id ) { StopRecorder(); returnS_OK; } elseif ( NT_SP_E_EVENT_ID_RTSP_STATUS_CODE==event_id ) { intstatus_code= (int)lParam; if ( 401==status_code ) { HandleVerification(); } returnS_OK; } elseif (NT_SP_E_EVENT_ID_NEED_KEY==event_id) { HandleKeyEvent(false); returnS_OK; } elseif (NT_SP_E_EVENT_ID_KEY_ERROR==event_id) { HandleKeyEvent(true); returnS_OK; } elseif ( NT_SP_E_EVENT_ID_PULLSTREAM_REACH_EOS==event_id ) { if (player_handle_!=NULL) { player_api_.StopPullStream(player_handle_); } returnS_OK; } elseif ( NT_SP_E_EVENT_ID_DURATION==event_id ) { NT_INT64duration= (NT_INT64)(lParam); edit_duration_.SetWindowTextW(GetHMSMsFormatStr(duration, false, false).c_str()); returnS_OK; } if ( NT_SP_E_EVENT_ID_CONNECTING==event_id||NT_SP_E_EVENT_ID_CONNECTION_FAILED==event_id||NT_SP_E_EVENT_ID_CONNECTED==event_id||NT_SP_E_EVENT_ID_DISCONNECTED==event_id||NT_SP_E_EVENT_ID_NO_MEDIADATA_RECEIVED==event_id) { if ( NT_SP_E_EVENT_ID_CONNECTING==event_id ) { OutputDebugStringA("connection status: connecting\r\n"); } elseif ( NT_SP_E_EVENT_ID_CONNECTION_FAILED==event_id ) { OutputDebugStringA("connection status: connection failed\r\n"); } elseif ( NT_SP_E_EVENT_ID_CONNECTED==event_id ) { OutputDebugStringA("connection status: connected\r\n"); } elseif (NT_SP_E_EVENT_ID_DISCONNECTED==event_id) { OutputDebugStringA("connection status: disconnected\r\n"); } elseif (NT_SP_E_EVENT_ID_NO_MEDIADATA_RECEIVED==event_id) { OutputDebugStringA("connection status: no mediadata received\r\n"); } connection_status_=event_id; } if ( NT_SP_E_EVENT_ID_START_BUFFERING==event_id||NT_SP_E_EVENT_ID_BUFFERING==event_id||NT_SP_E_EVENT_ID_STOP_BUFFERING==event_id ) { buffer_status_=event_id; if ( NT_SP_E_EVENT_ID_BUFFERING==event_id ) { buffer_percent_= (NT_INT32)lParam; std::wostringstreamss; ss<<L"buffering:"<<buffer_percent_<<"%"; OutputDebugStringW(ss.str().c_str()); OutputDebugStringW(L"\r\n"); } } if ( NT_SP_E_EVENT_ID_DOWNLOAD_SPEED==event_id ) { download_speed_= (NT_INT32)lParam; /*std::wostringstream ss;ss << L"downloadspeed:" << download_speed_ << L"\r\n";OutputDebugStringW(ss.str().c_str());*/ } CStringshow_str=base_title_; if ( connection_status_!=0 ) { show_str+=_T("--链接状态: "); if ( NT_SP_E_EVENT_ID_CONNECTING==connection_status_ ) { show_str+=_T("链接中"); } elseif ( NT_SP_E_EVENT_ID_CONNECTION_FAILED==connection_status_ ) { show_str+=_T("链接失败"); } elseif ( NT_SP_E_EVENT_ID_CONNECTED==connection_status_ ) { show_str+=_T("链接成功"); } elseif ( NT_SP_E_EVENT_ID_DISCONNECTED==connection_status_ ) { show_str+=_T("链接断开"); } elseif (NT_SP_E_EVENT_ID_NO_MEDIADATA_RECEIVED==connection_status_) { show_str+=_T("收不到数据"); } } if (download_speed_!=-1) { std::wostringstreamss; ss<<L"--下载速度:"<< (download_speed_*8/1000) <<"kbps"<<L"("<< (download_speed_/1024) <<"KB/s)"; show_str+=ss.str().c_str(); } if ( buffer_status_!=0 ) { show_str+=_T("--缓冲状态: "); if ( NT_SP_E_EVENT_ID_START_BUFFERING==buffer_status_ ) { show_str+=_T("开始缓冲"); } elseif (NT_SP_E_EVENT_ID_BUFFERING==buffer_status_) { std::wostringstreamss; ss<<L"缓冲中"<<buffer_percent_<<"%"; show_str+=ss.str().c_str(); } elseif (NT_SP_E_EVENT_ID_STOP_BUFFERING==buffer_status_) { show_str+=_T("结束缓冲"); } } SetWindowText(show_str); returnS_OK; }
4. 软解码还是硬解码?
一般来说,Windows平台如果同时播放的实例不多或者分辨率不是太高的话,考虑到播放体验,建议优先考虑软解码,如果特定设备需要多路播放,也可以考虑硬解,需要注意的是,如果调用硬解码,需要先做是否支持硬解码检测,接口如下:
/*检查是否支持H264硬解码如果支持的话返回NT_ERC_OK*/NT_UINT32(NT_API*IsSupportH264HardwareDecoder)(); /*检查是否支持H265硬解码如果支持的话返回NT_ERC_OK*/NT_UINT32(NT_API*IsSupportH265HardwareDecoder)(); /**设置H264硬解*is_hardware_decoder: 1:表示硬解, 0:表示不用硬解*reserve: 保留参数, 当前传0就好*成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetH264HardwareDecoder)(NT_HANDLEhandle, NT_INT32is_hardware_decoder, NT_INT32reserve); /**设置H265硬解*is_hardware_decoder: 1:表示硬解, 0:表示不用硬解*reserve: 保留参数, 当前传0就好*成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetH265HardwareDecoder)(NT_HANDLEhandle, NT_INT32is_hardware_decoder, NT_INT32reserve);
5.只解关键帧
移动端,一般对只播放关键帧真正场景,需求不大,但是window端,好多场景下,因为需要播放非常多路,但是又不想占用太多的系统资源,如果全帧播放,路数过多,全部解码、绘制,系统资源占用会加大,如果能灵活的处理,可以随时只播放关键帧,全帧播放切换,对系统性能要求大幅降低,想全帧播放的时候,随时切换全帧绘制。
/**设置只解码视频关键帧*is_only_dec_key_frame: 1:表示只解码关键帧, 0:表示都解码, 默认是0*成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetOnlyDecodeVideoKeyFrame)(NT_HANDLEhandle, NT_INT32is_only_dec_key_frame);
6. 缓冲时间设置
缓冲时间,顾名思义,缓存多少数据才开始播放,比如设置2000ms的buffer time,直播模式下,收到2秒数据后,才正常播放。
加大buffer time,会增大播放延迟,好处是,网络抖动的时候,流畅性更好。
/*设置buffer,最小0ms*/NT_UINT32(NT_API*SetBuffer)(NT_HANDLEhandle, NT_INT32buffer);
7. 实时静音、实时音量调节
实时静音、实时音量调节顾名思义,播放端可以实时调整播放音量,或者直接静音掉,特别是多路播放场景下,非常有必要。
/*静音接口,1为静音,0为不静音*/NT_UINT32(NT_API*SetMute)(NT_HANDLEhandle, NT_INT32is_mute); /*设置播放音量, 范围是[0, 100], 0是静音,100是最大音量, 默认是100调用正确返回NT_ERC_OK*/NT_UINT32(NT_API*SetAudioVolume)(NT_HANDLEhandle, NT_INT32volume);
8.设置视频画面填充模式
设置视频画面的填充模式,如填充整个view、等比例填充view,如不设置,默认填充整个view。
相关接口设计如下:
player_api_.SetRenderScaleMode(player_handle_, btn_check_render_scale_mode_.GetCheck() ==BST_CHECKED?1 : 0);
9.快速启动
快速启动,主要是针对服务器缓存GOP的场景下,快速刷到最新的数据,确保画面的持续性。
/*设置秒开, 1为秒开, 0为不秒开*/NT_UINT32(NT_API*SetFastStartup)(NT_HANDLEhandle, NT_INT32isFastStartup);
10. 低延迟模式
低延迟模式下,设置buffer time为0,延迟更低,适用于比如需要操控控制的超低延迟场景下。
/*设置低延时播放模式,默认是正常播放模式mode: 1为低延时模式, 0为正常模式,其他只无效接口调用成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetLowLatencyMode)(NT_HANDLEhandle, NT_INT32mode);
11. 视频view旋转、水平|垂直翻转
接口主要用于,比如原始的视频倒置等场景下,设备端无法调整时,通过播放端完成图像的正常角度播放。
/**上下反转(垂直反转)*is_flip: 1:表示反转, 0:表示不反转*/NT_UINT32(NT_API*SetFlipVertical)(NT_HANDLEhandle, NT_INT32is_flip); /**水平反转*is_flip: 1:表示反转, 0:表示不反转*/NT_UINT32(NT_API*SetFlipHorizontal)(NT_HANDLEhandle, NT_INT32is_flip); /*设置旋转,顺时针旋转degress: 设置0, 90, 180, 270度有效,其他值无效注意:除了0度,其他角度播放会耗费更多CPU接口调用成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetRotation)(NT_HANDLEhandle, NT_INT32degress);
12. 设置实时回调下载速度
调用实时下载速度接口,通过设置下载速度时间间隔,和是否需要上报当前下载速度,实现APP层和底层SDK更友好的交互。
/*设置下载速度上报, 默认不上报下载速度is_report: 上报开关, 1: 表上报. 0: 表示不上报. 其他值无效.report_interval: 上报时间间隔(上报频率),单位是秒,最小值是1秒1次. 如果小于1且设置了上报,将调用失败注意:如果设置上报的话,请设置SetEventCallBack, 然后在回调函数里面处理这个事件.上报事件是:NT_SP_E_EVENT_ID_DOWNLOAD_SPEED这个接口必须在StartXXX之前调用成功返回NT_ERC_OK*/NT_UINT32(NT_API*SetReportDownloadSpeed)(NT_HANDLEhandle, NT_INT32is_report, NT_INT32report_interval); /*主动获取下载速度speed: 返回下载速度,单位是Byte/s(注意:这个接口必须在startXXX之后调用,否则会失败)成功返回NT_ERC_OK*/NT_UINT32(NT_API*GetDownloadSpeed)(NT_HANDLEhandle, NT_INT32*speed);
13. 实时快照
简单来说,播放过程中,是不是要存取当前的播放画面。
/*捕获图片file_name_utf8: 文件名称,utf8编码call_back_data: 回调时用户自定义数据call_back: 回调函数,用来通知用户截图已经完成或者失败成功返回 NT_ERC_OK只有在播放时调用才可能成功,其他情况下调用,返回错误.因为生成PNG文件比较耗时,一般需要几百毫秒,为防止CPU过高,SDK会限制截图请求数量,当超过一定数量时,调用这个接口会返回NT_ERC_SP_TOO_MANY_CAPTURE_IMAGE_REQUESTS. 这种情况下, 请延时一段时间,等SDK处理掉一些请求后,再尝试.*/NT_UINT32(NT_API*CaptureImage)(NT_HANDLEhandle, NT_PCSTRfile_name_utf8, NT_PVOIDcall_back_data, SP_SDKCaptureImageCallBackcall_back);
调用实例如下:
voidCSmartPlayerDlg::OnBnClickedButtonCaptureImage(){ if ( capture_image_path_.empty() ) { AfxMessageBox(_T("请先设置保存截图文件的目录! 点击截图左边的按钮设置!")); return; } if ( player_handle_==NULL ) { return; } if ( !is_playing_ ) { return; } std::wostringstreamss; ss<<capture_image_path_; if ( capture_image_path_.back() !=L'\\' ) { ss<<L"\\"; } SYSTEMTIMEsysTime; ::GetLocalTime(&sysTime); ss<<L"SmartPlayer-"<<std::setfill(L'0') <<std::setw(4) <<sysTime.wYear<<std::setfill(L'0') <<std::setw(2) <<sysTime.wMonth<<std::setfill(L'0') <<std::setw(2) <<sysTime.wDay<<L"-"<<std::setfill(L'0') <<std::setw(2) <<sysTime.wHour<<std::setfill(L'0') <<std::setw(2) <<sysTime.wMinute<<std::setfill(L'0') <<std::setw(2) <<sysTime.wSecond; ss<<L"-"<<std::setfill(L'0') <<std::setw(3) <<sysTime.wMilliseconds<<L".png"; std::wstring_convert<std::codecvt_utf8<wchar_t>>conv; autoval_str=conv.to_bytes(ss.str()); autoret=player_api_.CaptureImage(player_handle_, val_str.c_str(), NULL, &SM_SDKCaptureImageHandle); if (NT_ERC_OK==ret) { // 发送截图请求成功 } elseif (NT_ERC_SP_TOO_MANY_CAPTURE_IMAGE_REQUESTS==ret) { // 通知用户延时OutputDebugStringA("Too many capture image requests!!!\r\n"); } else { // 其他失败 } }
14. 扩展录像操作
播放端录像,我们做的非常细化,比如可以只录制音频或者只录制视频,设置录像存储路径,设置单个文件size,如果非AAC数据,可以转AAC后再录像。
/** 设置是否录视频,默认的话,如果视频源有视频就录,没有就没得录, 但有些场景下可能不想录制视频,只想录音频,所以增加个开关* is_record_video: 1 表示录制视频, 0 表示不录制视频, 默认是1*/NT_UINT32(NT_API*SetRecorderVideo)(NT_HANDLEhandle, NT_INT32is_record_video); /** 设置是否录音频,默认的话,如果视频源有音频就录,没有就没得录, 但有些场景下可能不想录制音频,只想录视频,所以增加个开关* is_record_audio: 1 表示录制音频, 0 表示不录制音频, 默认是1*/NT_UINT32(NT_API*SetRecorderAudio)(NT_HANDLEhandle, NT_INT32is_record_audio); /*设置本地录像目录, 必须是英文目录,否则会失败*/NT_UINT32(NT_API*SetRecorderDirectory)(NT_HANDLEhandle, NT_PCSTRdir); /*设置单个录像文件最大大小, 当超过这个值的时候,将切割成第二个文件size: 单位是KB(1024Byte), 当前范围是 [5MB-800MB], 超出将被设置到范围内*/NT_UINT32(NT_API*SetRecorderFileMaxSize)(NT_HANDLEhandle, NT_UINT32size); /*设置录像文件名生成规则*/NT_UINT32(NT_API*SetRecorderFileNameRuler)(NT_HANDLEhandle, NT_SP_RecorderFileNameRuler*ruler); /*设置录像回调接口*/NT_UINT32(NT_API*SetRecorderCallBack)(NT_HANDLEhandle, NT_PVOIDcall_back_data, SP_SDKRecorderCallBackcall_back); /*设置录像时音频转AAC编码的开关, aac比较通用,sdk增加其他音频编码(比如speex, pcmu, pcma等)转aac的功能.is_transcode: 设置为1的话,如果音频编码不是aac,则转成aac, 如果是aac,则不做转换. 设置为0的话,则不做任何转换. 默认是0.注意: 转码会增加性能消耗*/NT_UINT32(NT_API*SetRecorderAudioTranscodeAAC)(NT_HANDLEhandle, NT_INT32is_transcode); /*启动录像*/NT_UINT32(NT_API*StartRecorder)(NT_HANDLEhandle); /*停止录像*/NT_UINT32(NT_API*StopRecorder)(NT_HANDLEhandle);
15. 拉流回调编码后的数据(配合转发模块使用)
拉流回调编码后的数据,主要是为了配合转发模块使用,比如拉取rtsp或rtmp流数据,直接转RTMP推送到RTMP服务。
/** 设置拉流时,吐视频数据的回调*/NT_UINT32(NT_API*SetPullStreamVideoDataCallBack)(NT_HANDLEhandle, NT_PVOIDcall_back_data, SP_SDKPullStreamVideoDataCallBackcall_back); /** 设置拉流时,吐音频数据的回调*/NT_UINT32(NT_API*SetPullStreamAudioDataCallBack)(NT_HANDLEhandle, NT_PVOIDcall_back_data, SP_SDKPullStreamAudioDataCallBackcall_back); /*设置拉流时音频转AAC编码的开关, aac比较通用,sdk增加其他音频编码(比如speex, pcmu, pcma等)转aac的功能.is_transcode: 设置为1的话,如果音频编码不是aac,则转成aac, 如果是aac,则不做转换. 设置为0的话,则不做任何转换. 默认是0.注意: 转码会增加性能消耗*/NT_UINT32(NT_API*SetPullStreamAudioTranscodeAAC)(NT_HANDLEhandle, NT_INT32is_transcode); /*启动拉流*/NT_UINT32(NT_API*StartPullStream)(NT_HANDLEhandle); /*停止拉流*/NT_UINT32(NT_API*StopPullStream)(NT_HANDLEhandle);
16. H264用户数据回调或SEI数据回调
如发送端在264编码时,加了自定义的user data数据,可以通过以下接口实现数据回调,如需直接回调SEI数据,调下面SEI回调接口即可。
/*设置用户数据回调*/NT_UINT32(NT_API*SetUserDataCallBack)(NT_HANDLEhandle, NT_PVOIDcall_back_data, NT_SP_SDKUserDataCallBackcall_back);
调用实例如下:
extern"C"NT_VOIDNT_CALLBACKNT_SP_SDKUserDataHandle(NT_HANDLEhandle, NT_PVOIDuser_data, NT_INT32data_type, NT_PVOIDdata, NT_UINT32size, NT_UINT64timestamp, NT_UINT64reserve1, NT_INT64reserve2, NT_PVOIDreserve3){ if ( 1==data_type ) { std::wostringstreamoss; oss<<L"userdata "; constNT_BYTE*byte_data=reinterpret_cast<constNT_BYTE*>(data); if ( byte_data!=nullptr&&size>0 ) { oss<<L" byte data size="<<size; } std::wstring_convert<std::codecvt_utf8<wchar_t>>conv; oss<<L" t:"<<timestamp<<L"\r\n"; OutputDebugStringW(oss.str().c_str()); } elseif ( 2==data_type ) { constNT_CHAR*str_data=reinterpret_cast<constNT_CHAR*>(data); if (str_data!=nullptr&&size>0) { std::unique_ptr<std::string>s(newstd::string(str_data, str_data+size)); // oss << L" utf8 string:" << conv.from_bytes(*s);// oss << L" size=" << size;if ( !s->empty() ) { HWNDhwnd=reinterpret_cast<HWND>(user_data); if ( hwnd!=nullptr&& ::IsWindow(hwnd) ) { ::PostMessage(hwnd, WM_USER_SDK_SP_RECV_USER_DATA, (WPARAM)s.release(), (LPARAM)timestamp); } } } } }
17. 设置回调解码后YUV、RGB数据
如需对解码后的yuv或rgb数据,进行二次处理,如人脸识别等,可以通回调yuv rgb接口实现数据二次处理,对于Windows平台来说,如果设备不支持D3D,也可以数据回调上来GDI模式绘制:
player_api_.SetVideoFrameCallBack(player_handle_, NT_SP_E_VIDEO_FRAME_FORMAT_RGB32, GetSafeHwnd(), SM_SDKVideoFrameHandle); extern"C"NT_VOIDNT_CALLBACKSM_SDKVideoFrameHandle(NT_HANDLEhandle, NT_PVOIDuserData, NT_UINT32status, constNT_SP_VideoFrame*frame){ /*if (frame != NULL){std::ostringstream ss;ss << "Receive frame time_stamp:" << frame->timestamp_ << "ms" << "\r\n";OutputDebugStringA(ss.str().c_str());}*/if ( frame!=NULL ) { if ( NT_SP_E_VIDEO_FRAME_FORMAT_RGB32==frame->format_&&frame->plane0_!=NULL&&frame->stride0_>0&&frame->height_>0 ) { std::unique_ptr<nt_rgb32_image>pImage(newnt_rgb32_image()); pImage->size_=frame->stride0_*frame->height_; pImage->data_=newNT_BYTE[pImage->size_]; memcpy(pImage->data_, frame->plane0_, pImage->size_); pImage->width_=frame->width_; pImage->height_=frame->height_; pImage->stride_=frame->stride0_; HWNDhwnd= (HWND)userData; if ( hwnd!=NULL&& ::IsWindow(hwnd) ) { ::PostMessage(hwnd, WM_USER_SDK_RGB32_IMAGE, (WPARAM)handle, (LPARAM)pImage.release()); } } } }
总结
以上就是我们在开发RTMP播放器的一些心得,除了上述基础设计,其他还有些,比如如果系统不支持D3D,需要采用GDI模式绘制,播放界面叠加实时文字,播放画面全屏等,这里就不再赘述。
除Windows平台外,我们还同步开发了Linux、Android、iOS平台的RTMP播放器,大多常规接口四个平台基本统一,延迟也都做到了毫秒级。对于大多数开发者来说,不一定需要实现上述所有部分,只要按照产品诉求,实现其中的30-40%就足够满足特定场景使用了。
一个好的播放器,特别是要满足低延迟稳定的播放(毫秒级延迟),需要注意的点远不止如此,厚积薄发,登上山顶,不是为了饱览风光,是为了寻找更高的山峰!