VR头显Unity下如何实现毫秒级延迟的RTMP或RTSP播放?

简介: VR头显Unity下如何实现毫秒级延迟的RTMP或RTSP播放?

技术背景

虚拟现实(VR)技术的互动性和沉浸感,为我们提供了一种全新的视觉体验,不过,如果需要实现真正的沉浸式体验,VR播放的延迟问题非常重要。

好多VR场景下,如果存在延迟,用户在移动头部时可能会感觉到画面反应不及时,导致影响视频的流畅度。在VR电影或VR直播中,延迟则可能导致画面和声音的实时同步出现问题,使用户产生晕眩感。

如何尽可能降低Unity环境下的直播播放延迟,是摆在我们面前的大问题,目前,硬件厂商也采用一些更加好的传输技术,例如5G网络等高速网络技术,以降低传输延迟。当然,还可以通过优化传输链路及数据处理流程等方法,提高传输速度和实时性。今天,我们主要介绍的是VR头显下,如何低延迟的实现RTMP或RTSP的播放。

技术实现

说了这么多,如何在VR头显端,尽可能的降低直播播放延迟呢?常用的方法,比如可以用专门的播放器中间件,实现数据的拉流解码会数据回调,在unity下,优化数据处理和渲染。

以大牛直播SDK为例,我们在做Unity下RTMP或RTSP直播播放的时候,大多场景对延迟和资源占有要求非常高,鉴于好多时候,特别是头显终端,性能可能不尽人意,需要播放的视频分辨率码率又高,如何高效率的实现低延迟的RTMP或RTSP播放,是Unity下比较棘手的问题,特别是毫秒级延迟。

以Android平台为例,原生模块拿到RTSP或RTSP流后,解码获取到原始的YUV或RGB数据,然后投递给Unity,Unity下如果需要更低的延迟,数据交互这块,尽可能的高效率,尽可能的减少数据的投递和拷贝。

开始播放:

privatevoidOnStartStopBtnClicked()
{
if (is_running)
  {
Close();
btn_start_stop_playback_.GetComponentInChildren<Text>().text="开始播放";
btn_decode_mode_.GetComponent<Button>().interactable=true;
btn_latency_mode_.GetComponent<Button>().interactable=true;
  }
else  {
Play();
btn_start_stop_playback_.GetComponentInChildren<Text>().text="停止播放";
btn_decode_mode_.GetComponent<Button>().interactable=false;
btn_latency_mode_.GetComponent<Button>().interactable=false;
  }
}

image.gif

对应Play()实现,这里主要是播放前参数设定,比如采用软解还是硬解码、buffer time是多少,是不是开启低延迟模式等:

//Author: daniusdk.compublicvoidPlay()
{
if (is_running)
  {
Debug.Log("已经在播放。。");   
return;
  }
OpenPlayer();
if ( player_handle_==0 )
return;
NT_U3D_Set_Game_Object(player_handle_, game_object_);
/* ++ 播放前参数配置可加在此处 ++ */intis_using_tcp=0;        //TCP/UDP模式设置NT_U3D_SetRTSPTcpMode(player_handle_, is_using_tcp);
intis_report=0;
intreport_interval=1;
NT_U3D_SetReportDownloadSpeed(player_handle_, is_report, report_interval);  //下载速度回调NT_U3D_SetBuffer(player_handle_, play_buffer_time_);                        //设置buffer timeNT_U3D_SetPlayerLowLatencyMode(player_handle_, is_low_latency_?1 : 0);    //设置是否启用低延迟模式NT_U3D_SetMute(player_handle_, is_mute_?1 : 0);                           //是否启动播放的时候静音NT_U3D_SetAudioVolume(player_handle_, cur_audio_volume_);                   //设置播放音量NT_U3D_SetVideoDecoderMode(player_handle_, is_hw_decode_?1 : 0);          //设置H.264软硬解模式NT_U3D_SetVideoHevcDecoderMode(player_handle_, is_hw_decode_?1 : 0);          //设置H.265软硬解模式intis_fast_startup=1;
NT_U3D_SetFastStartup(player_handle_, is_fast_startup);                     //设置快速启动模式intrtsp_timeout=10;
NT_U3D_SetRTSPTimeout(player_handle_, rtsp_timeout);                        //设置RTSP超时时间intis_auto_switch_tcp_udp=1;
NT_U3D_SetRTSPAutoSwitchTcpUdp(player_handle_, is_auto_switch_tcp_udp);    //设置TCP/UDP模式自动切换intis_audiotrack=1;
NT_U3D_SetAudioOutputType(player_handle_, is_audiotrack);                   //设置音频输出模式: if 0: 自动选择; if with 1: audiotrack模式NT_U3D_SetUrl(player_handle_, videoUrl);
/* -- 播放前参数配置可加在此处 -- */intflag=NT_U3D_StartPlay(player_handle_);
if (flag==DANIULIVE_RETURN_OK)
  {
is_need_get_frame_=true;
Debug.Log("播放成功");
  }
else  {
is_need_get_frame_=false;
Debug.LogError("播放失败");
  }
is_running=true;  
}

image.gif

开始播放后,native模块,回调yuv/rgb数据,unity3d模块,做相应的绘制处理即可。

privatevoidUpdate()
{
if (!is_need_get_frame_)
return;
if (player_handle_==0)
return;
AndroidJavaObjectu3d_video_frame_obj=NT_U3D_GetVideoFrame(player_handle_);
if (u3d_video_frame_obj==null)
return;
VideoFrameconverted_video_frame=ConvertToVideoFrame(u3d_video_frame_obj);
if (converted_video_frame==null)
return;
if ( !is_need_init_texture_)
  {
if (converted_video_frame.width_!=video_width_||converted_video_frame.height_!=video_height_||converted_video_frame.y_stride_!=y_row_bytes_||converted_video_frame.u_stride_!=u_row_bytes_||converted_video_frame.v_stride_!=v_row_bytes_)
    {
is_need_init_texture_=true;
    }
  }
if (is_need_init_texture_)
  {
if (InitYUVTexture(converted_video_frame))
    {
is_need_init_texture_=false;
    }
  }
UpdateYUVTexture(converted_video_frame);
converted_video_frame=null;
}

image.gif

如果需要关闭RTMP或RTSP流,调用对应的ClosePlayer()就好:

privatevoidClosePlayer()
{
is_need_get_frame_=false;
is_need_init_texture_=false;
intflag=NT_U3D_StopPlay(player_handle_);
if (flag==DANIULIVE_RETURN_OK)
  {
Debug.Log("停止成功");
  }
else  {
Debug.LogError("停止失败");
  }
flag=NT_U3D_Close(player_handle_);
if (flag==DANIULIVE_RETURN_OK)
  {
Debug.Log("关闭成功");
  }
else  {
Debug.LogError("关闭失败");
  }
player_handle_=0;
NT_U3D_UnInit();
is_running=false;
video_width_=0;
video_height_=0;
}

image.gif

以上以Android平台为例,大概介绍了Unity环境下的RTMP、RTSP直播播放,如果需要延迟和稳定性都靠谱,建议数据接收、解包解码回调yuv/rgb数据在原始native模块处理,然后把解码后的数据,高效率的投递到unity测,实现unity环境下的低延迟RTMP或RTSP,感兴趣的开发者可以酌情了解。

相关文章
|
3月前
|
数据采集 编解码 图形学
Android平台Unity下如何通过WebCamTexture采集摄像头数据并推送至RTMP服务器或轻量级RTSP服务
Android平台Unity下如何通过WebCamTexture采集摄像头数据并推送至RTMP服务器或轻量级RTSP服务
104 0
|
4月前
|
vr&ar C# 图形学
【Unity 3D】VR飞机拆装后零件说明功能案例实战(附源码和演示视频 超详细)
【Unity 3D】VR飞机拆装后零件说明功能案例实战(附源码和演示视频 超详细)
38 0
|
4月前
|
vr&ar C# 图形学
【Unity 3D】VR飞机动态拆装及引擎开关控制案例(附源码和演示视频 超详细)
【Unity 3D】VR飞机动态拆装及引擎开关控制案例(附源码和演示视频 超详细)
39 0
|
4月前
|
vr&ar 图形学
【Unity 3D】VR飞机起飞喷火游戏案例实战(附源码和演示视频 超详细)
【Unity 3D】VR飞机起飞喷火游戏案例实战(附源码和演示视频 超详细)
52 0
|
7月前
|
Linux 开发工具 图形学
Unity下如何实现RTMP或RTSP播放端录像?
Unity下如何实现RTMP或RTSP播放端录像?
229 0
|
7月前
|
编解码 开发工具 图形学
Unity环境下RTMP推流+RTMP播放低延迟解决方案
在本文之前,我们发布了Unity环境下的RTMP推流(Windows平台+Android平台)和RTMP|RTSP拉流(Windows平台+Android平台+iOS平台)低延迟的解决方案,今天做个整体汇总,权当抛砖引玉。
444 0
|
传感器 前端开发 Go
Unity-VR | AR相关(更新中)
Unity-VR | AR相关 Unity-VR插件 一:Unity AR好用的插件 虚拟现实(VR)是未来的一大发展方向,Unity作为一款主流的游戏引擎,早已在VR的路上加码。下面介绍一些用Unity开发VR游戏/应用的插件,可以帮助开发者更好的开发各种VR程序,构建通往未来之路。
Unity-VR | AR相关(更新中)
|
6月前
|
设计模式 测试技术 vr&ar
提升你的Android开发技能:从AR/VR沉浸到UI设计和故障排除(三)
提升你的Android开发技能:从AR/VR沉浸到UI设计和故障排除
|
6月前
|
人工智能 机器人 区块链
提升你的Android开发技能:从AR/VR沉浸到UI设计和故障排除(二)
提升你的Android开发技能:从AR/VR沉浸到UI设计和故障排除
|
12天前
|
定位技术 vr&ar Android开发
AR与VR在安卓开发中的应用案例
【4月更文挑战第14天】AR和VR技术在安卓开发中日益普及,改变生活和工作方式。AR应用于导航、教育、零售,如AR导航、解剖学教学工具和虚拟家居预览。VR则创造虚拟环境,用于游戏、旅游和健身,如VR游戏“Beat Saber”、虚拟旅游和VR健身应用。这些技术在医疗、房地产等领域也展现潜力,未来将有更多创新应用出现,开发者应关注并探索其可能性。