公司项目需要实现一个只是rtsp推流和rtsp拉流的业务机制,据说ZLMediaKit能满足rtsp推拉流的相关业务。
对ZLMediaKit流媒体服务器进行安装以及了解。
0:从开源库Readme中对其功能进行了解
简单认识ZLMediaKit,了解ZLMediaKit能实现的基本功能,我的理解是他就是一个流媒体服务器。
1:ZLMediaKit环境搭建
使用linux虚拟机环境进行环境搭建,并启动:
#ZLMediaKit采⽤了C++11的语法和库,要求编译器⽀持完整的C++11标准。 sudo apt-get install cmake git clone --depth 1 https://gitee.com/xia-chu/ZLMediaKit.git cd ZLMediaKit/ #注意一定要执行 git submodule update --init mkdir build sudo cmake .. make -j4 #相关依赖库 这里先测试基础功能 只安装openssl库 sudo apt-get install libssl-dev #除了openssl,其他其实都可以不安装 #sudo apt-get install libssl-dev #sudo apt-get install libsdl-dev #sudo apt-get install libavcodec-dev #sudo apt-get install libavutil-dev #sudo apt-get install ffmpeg #在release 目录下生成相关的可执行文件 这里暂时作为测试只关注MediaServer 主进程文件 hlp@ubuntu:~/ZLMediaKit/release/linux/Debug$ pwd /home/hlp/ZLMediaKit/release/linux/Debug ./MediaServer -h #查看相关参数 sudo ./MediaServer -d & #启动 #注意观察日志,启动逻辑正常
2:对rtsp,rtmp,rtp推流和拉流进行测试
ZLMediaKit作为一个流媒体服务器,使用ffmpeg/obs,ffplay/vlc等工具作为推流端或者拉流端,进行基础功能的测试。
2.1:测试rtsp推流和拉流:使用ffmpeg推流,vlc/ffplay拉流测试
2.1.1: ffmpeg进行推流,vlc拉流进行测试
启动ZLMediaKit, 使用ffmpeg推流命令:
ffmpeg -re -i "time.mp4" -vcodec h264 -acodec aac -f rtsp -rtsp_transport tcp rtsp://192.168.0.110/live/test #rtsp进行推流 推流用的tcp
vlc拉流进行验证,会发现播放正常:
2.1.2:如果使用ffplay进行测试,试试用rtsp/rtmp拉流。
使用ffplay进行拉流相关命令:
#这里应该用的默认端口 ffplay -rtsp_transport tcp rtsp://192.168.0.110/live/test ffplay -rtsp_transport udp rtsp://192.168.0.110/live/test ffplay rtmp://192.168.0.110/live/test
拉流相关现象如下图,会发现rtsp以及rtmp拉流时,实时性有一定的差异。
2.2:使用rtmp进行推流和拉流测试:
2.2.1:ffmpeg 使用rtmp推流命令
-re 表示按时间戳读取文件 -vcodec vedio编码格式 -acodec audio编码格式 -f 表示输出格式 #使用rtmp进行推流命令 ffmpeg -re -i "time.mp4" -vcodec h264 -acodec aac -f flv rtmp://192.168.0.110/live/test
使用vlc简单测试拉流,播放成功,同时发现,使用rtmp,rtsp(udp、tcp的rtp方式),时间戳差异变化也挺大的:
2.2.2:如果使用ffmpeg推流,用ffplay进行拉流测试一下。
#使用rtmp进行推流命令 ffmpeg -re -i "time.mp4" -vcodec h264 -acodec aac -f flv rtmp://192.168.0.110/live/test #ffplay拉流播放命令 ffplay -rtsp_transport tcp rtsp://192.168.0.110/live/test ffplay -rtsp_transport udp rtsp://192.168.0.110/live/test ffplay rtmp://192.168.0.110/live/test
也简单对比一下时间戳:
2.3:使用rtp进行推拉流测试
2.3.1 使用ffmpeg进行rtp推流
rtp的推流和拉流个人有些许的知识盲点,这里暂时遗留
#使用rtp进行推流的命令: 但是我没有测通怎么播放 ffmpeg -re -i "time.mp4" -vcodec h264 -acodec aac -f rtp_mpegts rtp://192.168.0.110:10000 #测试通过的一个逻辑: #借助ffmepg进行rtp推流以及基于ffplay进行播放的逻辑:(不需要借助服务器) ffmpeg -re -i time.mp4 -vcodec copy -f rtp rtp://127.0.0.1:1234>test.sdp ffplay -protocol_whitelist "file,udp,rtp" -i test.sdp #会发现播放成功 #如下命令却没有播放成功 暂时遗留问题 #ffplay -protocol_whitelist "file,udp,rtp" -i rtp://127.0.0.1:1234
3:用wireshark抓包一下,熟悉流程:
简单抓一下包,熟悉学习流程,这里使用rtsp udp进行推流,使用rtsp tcp进行拉流:
ffmpeg -re -i "time.mp4" -vcodec h264 -acodec aac -f rtsp -rtsp_transport udp rtsp://192.168.0.110/live/test ffplay -rtsp_transport tcp rtsp://192.168.0.110/live/test
3.1:使用ffmpeg进行推流时 抓包如下:
OPTION:查询服务器端可⽤⽅法
ANNOUNCE: 发送媒体描述信息
SETUP:建⽴RTSP会话
RECORD:请求传送数据
RTP:数据推
TEARDOWN:关闭会话,退出
3.2:拉流抓包流程分析如下:
OPTION:查询服务器端可⽤⽅法
DESCRIBE:得到服务器媒体描述信息,一般时sdp信息
SETUP:建⽴RTSP会话
PLAY:请求开始传送数据
RTP:数据传送播放中
TEARDOWN:关闭会话,退出
3.3:rtsp推流和拉流流程总结
第一步: 查询服务器端可用方法 option
第二步: 交互媒体信息SDP,推流:ANNOUNCE; 拉流:DESCRIBE
第三步:请求建立会话,这里基于tcp和基于udp的差异 SETUP,
第四步:触发开始推流或者开始拉流,推流:RECORD;拉流:PLAY,
第五步:数据传输,只是方向刚好相反,真正的推流或者拉流 rtp
第六步:关闭会话:TEARDOWN
4:总结
想要对rtsp推拉流做了解,先实践做练习,为后面做准备
对ZLMediaKit流媒体服务器以及相关推拉流进行测试。
下一步计划:obs软件基本使用(obs是一个功能很强大的软件,本来想试着操作一下,但发现有些困难)
音视频相关理论学习及实践参考:推荐免费订阅