FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流

本文涉及的产品
视觉智能开放平台,视频资源包5000点
视觉智能开放平台,分割抠图1万点
视觉智能开放平台,图像资源包5000点
简介: 《FFmpeg开发实战》书中介绍轻量级流媒体服务器MediaMTX,但其功能有限,不适合生产环境。推荐使用国产开源的ZLMediaKit,它支持多种流媒体协议和音视频编码标准。以下是华为欧拉系统下编译安装ZLMediaKit和FFmpeg的步骤,包括更新依赖、下载源码、配置、编译、安装以及启动MediaServer服务。此外,还提供了通过FFmpeg进行RTSP和RTMP推流,并使用VLC播放器拉流的示例。

​《FFmpeg开发实战:从零基础到短视频上线》一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流。不过MediaMTX的功能实在是太简单了,无法应用于真实直播的生产环境,真正能用于生产环境的流媒体服务器还要看SRS或者ZLMediaKit。

ZLMediaKit是一款国产的开源流媒体服务器,它基于C++11开发,支持多种流媒体协议(RTSP/RTMP/HLS/HTTP-FLV/WebSocket-FLV/GB28181/HTTP-TS/WebSocket-TS/HTTP-fMP4/WebSocket-fMP4/MP4/WebRTC),支持的音视频编码标准包括H265、H264、AAC、G711、OPUS等。
通过结合FFmpeg与ZLMediaKit,可以很方便地测试音视频的推拉流。接下来以华为的欧拉系统为运行环境,介绍如何编译、安装、调试ZLMediaKit,详细的操作步骤说明如下。

一、编译安装ZLMediaKit

1、登录Linux服务器(比如华为云的欧拉系统),运行下列命令安装ZLMediaKit的依赖包。

yum install git
yum install openssl
yum install libsrtp

2、执行下面命令从gitee下载ZLMediaKit的源码。

cd /usr/local/src
git clone --depth 1 https://gitee.com/xia-chu/ZLMediaKit

3、进入ZLMediaKit的源码目录,执行下面命令更新ZLMediaKit的依赖模块源码。

cd ZLMediaKit
git submodule update --init

4、依次运行下面命令配置ZLMediaKit。

mkdir build
cd build
cmake .. -DENABLE_WEBRTC=on

5、运行下面命令编译ZLMediaKit。

make

6、编译完成后,运行下面命令安装ZLMediaKit。

make install

命令执行完毕,ZLMediaKit的可执行程序将安装到ZLMediaKit源码路径的release/linux/Debug目录下。

二、编译安装FFmpeg

在Linux系统编译安装FFmpeg的详细步骤参见《FFmpeg开发实战:从零基础到短视频上线》一书的“1.2 Linux系统安装FFmpeg”,这里不再赘述。

三、启动ZLMediaKit

1、进入ZLMediaKit的安装目录:

cd /usr/local/src/ZLMediaKit/release/linux/Debug

2、打开配置文件config.ini,把http标签下的sslport值改为8443,如下所示。

sslport=8443

把http标签下的port值改为8080,如下所示。

port=8080

修改完毕,保存并退出config.ini。
3、执行下面命令,启动MediaServer服务。

./MediaServer -d &

若想启用安全协议SSL,则执行下面命令,启动带默认https证书的MediaServer服务。

./MediaServer -d -s ./default.pem &

4、检查服务器是否开启了下列端口:
554端口,用于rtsp协议,访问“ rtsp:// ”开头的直播地址需要。
1935端口,用于rtmp协议,访问“ rtmp:// ”开头的直播地址需要。
8080端口,用于http协议,访问“ http:// ”开头的直播地址需要。
8443端口,用于https协议,访问“ https:// ”开头的直播地址需要。

四、检查ZLMediaKit的视频推拉流

视频推流有RTSP和RTMP两种常见的流媒体协议。其中RTSP全称为“Real Time Streaming Protocol”(实时流传输协议),它由RealNetworks和网景公司共同提交。RTSP协议支持双向传输,允许服务器端和客户端之间实时通信,常用于需要播放、暂停、快进、快退等控制操作的视频点播场合。
RTMP全称为“RTMP Real Time Messaging Protocol”(实时消息传输协议),它由Adobe公司提交。RTMP协议只支持单向传输,只允许从服务器端传输信息到客户端,常用于实时性较强的视频直播,比如带货直播、视频会议、在线课堂等场合。
下面通过ffmpeg把视频源推流给ZLMediaKit,并使用VLC播放器观察视频拉流效果。
1、执行以下命令,将本地视频通过RTSP协议推流给ZLMediaKit。

ffmpeg -re -stream_loop -1 -i "/usr/local/src/test/2018s.mp4" -vcodec h264 -f rtsp rtsp://127.0.0.1/live/test

若想将本地视频通过RTMP协议推流给ZLMediaKit,则需执行以下命令。

ffmpeg -re -stream_loop -1 -i "/usr/local/src/test/2018s.mp4" -vcodec h264 -f flv rtmp://127.0.0.1/live/test

2、打开VLC播放器,依次选择菜单“媒体”→“打开网络串流”,在网络URL框中输入下列任一地址,观看能否正常播放视频画面。

rtsp://124.***.***.***/live/test
rtmp://124.***.***.***/live/test
http://124.***.***.***:8080/live/test/hls.m3u8
http://124.***.***.***:8080/live/test.live.ts
http://124.***.***.***:8080/live/test.live.mp4
http://124.***.***.***:8080/live/test.live.flv

注意需要把上述地址中的“124.xxx.xxx.xxx”替换为流媒体服务器实际的公网地址。

目录
相关文章
|
14天前
|
编解码
FFmpeg开发笔记(三十三)分析ZLMediaKit对H.264流的插帧操作
《FFmpeg开发实战》书中3.4.3节讲解如何将H.264流封装成MP4。H.264流通常以SPS→PPS→IDR帧开始,这一说法通过雷霄骅的H264分析器得到验证。分析器能解析H.264文件但不支持MP4。ZLMediaKit服务器在遇到I帧时会自动插入SPS和PPS配置帧,确保流符合标准格式。若缺少这些帧,客户端拉流时会报错。FFmpeg开发实战:从零基础到短视频上线》书中提供了更多FFmpeg开发细节。
27 0
FFmpeg开发笔记(三十三)分析ZLMediaKit对H.264流的插帧操作
|
26天前
|
Python
Python使用ffmpeg下载m3u8拼接为视频
Python使用ffmpeg下载m3u8拼接为视频
52 1
|
1天前
|
Web App开发 缓存 Linux
FFmpeg开发笔记(三十六)Linux环境安装SRS实现视频直播推流
《FFmpeg开发实战》书中第10章提及轻量级流媒体服务器MediaMTX,适合测试RTSP/RTMP协议,但不适合生产环境。推荐使用SRS或ZLMediaKit,其中SRS是国产开源实时视频服务器,支持多种流媒体协议。本文简述在华为欧拉系统上编译安装SRS和FFmpeg的步骤,包括安装依赖、下载源码、配置、编译以及启动SRS服务。此外,还展示了如何通过FFmpeg进行RTMP推流,并使用VLC播放器测试拉流。更多FFmpeg开发内容可参考相关书籍。
10 2
FFmpeg开发笔记(三十六)Linux环境安装SRS实现视频直播推流
|
7天前
|
Linux Apache C++
FFmpeg开发笔记(三十五)Windows环境给FFmpeg集成libsrt
该文介绍了如何在Windows环境下为FFmpeg集成SRT协议支持库libsrt。首先,需要安装Perl和Nasm,然后编译OpenSSL。接着,下载libsrt源码并使用CMake配置,生成VS工程并编译生成srt.dll和srt.lib。最后,将编译出的库文件和头文件按照特定目录结构放置,并更新环境变量,重新配置启用libsrt的FFmpeg并进行编译安装。该过程有助于优化直播推流的性能,减少卡顿问题。
39 2
FFmpeg开发笔记(三十五)Windows环境给FFmpeg集成libsrt
|
8天前
|
Linux
FFmpeg开发笔记(三十四)Linux环境给FFmpeg集成libsrt和librist
《FFmpeg开发实战》书中介绍了直播的RTSP和RTMP协议,以及新协议SRT和RIST。SRT是安全可靠传输协议,RIST是可靠的互联网流传输协议,两者于2017年发布。腾讯视频云采用SRT改善推流卡顿。以下是Linux环境下为FFmpeg集成libsrt和librist的步骤:下载安装源码,配置、编译和安装。要启用这些库,需重新配置FFmpeg,添加相关选项,然后编译和安装。成功后,通过`ffmpeg -version`检查版本信息以确认启用SRT和RIST支持。详细过程可参考书中相应章节。
16 1
FFmpeg开发笔记(三十四)Linux环境给FFmpeg集成libsrt和librist
|
21天前
|
编解码 Java Android开发
FFmpeg开发笔记(三十一)使用RTMP Streamer开启APP直播推流
RTMP Streamer是一款开源的安卓直播推流框架,支持RTMP、RTSP和SRT协议,适用于各种直播场景。它支持H264、H265、AV1视频编码和AAC、G711、OPUS音频编码。本文档介绍了如何使用Java版的RTMP Streamer,建议使用小海豚版本的Android Studio (Dolphin)。加载项目时,可添加国内仓库加速依赖下载。RTMP Streamer包含五个模块:app、encoder、rtmp、rtplibrary和rtsp。完成加载后,可以在手机上安装并运行APP,提供多种直播方式。开发者可以从《FFmpeg开发实战:从零基础到短视频上线》获取更多信息。
52 7
FFmpeg开发笔记(三十一)使用RTMP Streamer开启APP直播推流
|
22天前
|
存储 编解码
FFmpeg开发笔记(三十)解析H.264码流中的SPS帧和PPS帧
《FFmpeg开发实战》书中介绍了音视频编码历史,重点讲述H.264的成功在于其分为视频编码层和网络抽象层。H.264帧类型包括SPS(序列参数集,含视频规格参数),PPS(图像参数集,含编码参数)和IDR帧(立即解码刷新,关键帧)。SPS用于计算视频宽高和帧率,PPS存储编码设置,IDR帧则标志新的解码序列。书中还配以图片展示各帧结构详情,完整内容可参考相关书籍。
46 7
FFmpeg开发笔记(三十)解析H.264码流中的SPS帧和PPS帧
|
29天前
|
编解码 Linux
FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid
XviD是开源的MPEG-4视频编解码器,曾与DivX一起用于早期MP4视频编码,但现在已被H.264取代。要集成XviD到Linux上的FFmpeg,首先下载源码,解压后配置并编译安装libxvid。接着,在FFmpeg源码目录中,重新配置FFmpeg以启用libxvid,然后编译并安装。成功后,通过`ffmpeg -version`检查是否启用libxvid。详细步骤包括下载、解压libxvid,使用`configure`和`make`命令安装,以及更新FFmpeg配置并安装。
41 2
FFmpeg开发笔记(二十八)Linux环境给FFmpeg集成libxvid
|
15天前
|
Web App开发 移动开发 编解码
FFmpeg开发笔记(三十二)利用RTMP协议构建电脑与手机的直播Demo
本文讨论了实时数据传输在互联网中的重要性,如即时通讯和在线直播。一对一通信通常使用WebRTC技术,但一对多直播需要流媒体服务器和特定协议,如RTSP、RTMP、SRT或RIST。RTMP由于其稳定性和早期普及,成为国内直播的主流。文章通过实例演示了如何使用OBS Studio和RTMP Streamer进行RTMP推流,并对比了不同流媒体传输协议的优缺点。推荐了两本关于FFmpeg和Android开发的书籍以供深入学习。
22 0
FFmpeg开发笔记(三十二)利用RTMP协议构建电脑与手机的直播Demo
|
27天前
|
存储 编解码 Ubuntu
【QT】linux下alsa库的移植和QT中音视频的处理&笔记
【QT】linux下alsa库的移植和QT中音视频的处理&笔记

热门文章

最新文章