Android | 音视频方向进阶路线及资源合集

简介: 但是系统相机和系统控件VideoView的局限性都是可定制型太差,系统相机的图像分辨率,视频码率以及VideoView的进度条等.

image.png


有Android开发的小伙伴问有没有系统学习音视频的路线或者资料,今天抽空写一篇文章,整理一条从难到易从浅入深的路线,并配套对应的主流代码库.


音视频从采集到播放都经历了哪些流程呢::



通过上面的图,我们简单的把音视频方向分为主要的两块:


  • 媒体部分(蓝色+绿色)
  • 传输部分(红色)


1.媒体部分


我们这篇文章不再从音视频专业知识开始,而Android系统API的角度,逐层深入.


1.1 原始版本


我们最开始接触的摄像拍照是通过Intent调用系统摄像头:


Intent intent=new Intent();
// 指定开启系统相机的Action
intent.setAction(MediaStore.ACTION_IMAGE_CAPTURE);
intent.addCategory(Intent.CATEGORY_DEFAULT);
// 根据文件地址创建文件
File file=new File(FILE_PATH);
// 把文件地址转换成Uri格式
Uri uri=Uri.fromFile(file);
// 设置系统相机拍摄照片完成后图片文件的存放地址
intent.putExtra(MediaStore.EXTRA_OUTPUT, uri);


我们要播放视频最原始的是基于VideoView系统控件.


但是系统相机和系统控件VideoView的局限性都是可定制型太差,系统相机的图像分辨率,视频码率以及VideoView的进度条等.


1.2 初级版本


接下来,Android开发中我们接触到最上层的两个API(Android官方提供了的么:github.com/android/med… 包含了MediaRecorder VideoPlayer等)是:

  1. MediaRecorder 音频/视频采集 对应上图蓝色部分, 参考 github.com/werbhelius/… 实现
  2. MediaPlayer 音频/视频播放, (VideoView封装了MediaPlayer),对应上图绿色部分 参考:github.com/crossle/Med… 实现

MediaRecorder示例:


mediaRecorder = new MediaRecorder(); // 创建
mediaRecorder.reset(); // 设置为空闲模式 可以赋属性了
mediaRecorder.setCamera(mCamera);// 设置一个摄像头用于录制。
// 使用SurfaceView预览
mediaRecorder.setPreviewDisplay(mSurfaceHolder.getSurface());
// 1.设置采集声音
// mediaRecorder.setAudioSource(MediaRecorder.AudioSource.MIC);
// 设置采集图像
mediaRecorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
// 2.设置视频,音频的输出格式 mp4
mediaRecorder.setOutputFormat(MediaRecorder.OutputFormat.DEFAULT);
// 开始录制
mediaRecorder.prepare();
mediaRecorder.start();


MediaRecorder示例:


MediaPlayer mMediaPlayer = new MediaPlayer();
mMediaPlayer.setDataSource(mContext, mUri, mHeaders);
mMediaPlayer.setDisplay(mSurfaceHolder);
mMediaPlayer.prepareAsync();


示例代码简单介绍了一下MediaRecorder和MediaRecorder的API,参考上面提供的demo已经可以实现简单的播放器和音视频录制功能了.上面我们又引出两个接口来:Camera, Surface. 拍照等功能我们都可以使用Camera的接口实现,关于Camera的API可以参考google的demo:github.com/googlearchi… Surface我们接下来介绍.

1.3 进阶版本


上面的的MediaRecorder,MediaPlayer直接封装了图中的蓝色部分与绿色部分.它们将输入编码复用以及解码解复用输出封装到了一起,可定制性差: 1.MediaPlayer只支持固定的编码和封装,不支持rtmp等 2.MediaRecorder无法支持mp3,opus, ogg等编码,无法对采集到音视频做预处理(比如变声,美颜等)


基于上述几个原因,我们再认识几个API:


  1. 视频采集 Camera
  2. 音频采集 AudioRecorder
  3. 视频预处理:SurfaceTexture, Surface, EGL ,GLES10
  4. 音视频编码 MediaCodec MediaFormat
  5. 音视频封装(复用) MediaMuxer
  6. 音视频(解复用) MediaExtractor
  7. 音视频解码 MediaCodec
  8. 视频预览 SurfaceView, GLSurfaceView, TextureView
  9. 音频播放 AudioTrack


上述API Android也为我们提供了示https://github.com/google/grafika,里面包含的示例相当全面:


  1. Play video (TextureView). 基于MediaCodec ,MediaExtractor, TextureView封装的播放器,可以帮助理解这几个api.
  2. Continuous capture. 基于Camera,GLES20,SurfaceTexture,SurfaceView,MediaCodec实现的建议的视频录制器.
  3. Double decode. 类似于Play video示例,只是解码两路视频渲染到TextureView.
  4. Hardware scaler exerciser. 演示OpenGL进行画面缩放
  5. Live camera (TextureView). 演示Camera,SurfaceTexture以及TextureView使用
  6. Multi-surface test. 演示三路视频渲染
  7. Play video (SurfaceView). 类似于Play video (TextureView),只是输出从TextureView变成了SurfaceView.
  8. Record GL app. 基于FBO同时将摄像头采集数据输出到编码器和屏幕,FBO是实时美颜的关键技术.
  9. Record Screen using MediaProjectionManager.基于MediaProjectionManager将屏幕内容录制成文件.之前我们的输入都是摄像头,Android5.0开始提供了MediaProjectionManager,可以对屏幕内容进行采集.
  10. Scheduled swap. 了解一个新伙伴Choreographer
  11. Show + capture camera. 摄像头同时输出到文件和屏幕(与"RecordFBOActivity"输出对象变成了GLSurfaceView)
  12. Simple Canvas in TextureView. 一般的我们把基于OpenGL的渲染称为"硬"渲染,基于Canvas的称为"软"渲染,这个示例展示了如何通过Canvas绘制到TextureView
  13. Simple GL in TextureView. 可以理解为实现了GLThread的TextureView.
  14. Texture from Camera. Camera->SurfaceTexture->SurfaceView
  15. Color bars. Canvas绘制示例
  16. OpenGL ES Info. 获取OpenGL 版本等相关信息
  17. glTexImage2D speed test. 纹理上传示例,从图片装换为OpenGL纹理,又要认识一个新伙伴: glTexImage2D().
  18. glReadPixels speed test. OpenGL纹转换为图片(RGBA/YUV),再认识一个新伙伴 glReadPixels()


上面的demo主要是图形相关的,编解码器观光一下官方文档:developer.android.google.cn/reference/a… 已经不能再明白了.



此外,想弄明白MediaCodec,还需要了解一个数据结构ByteBuffer(移步官方文档了解一下? developer.android.google.cn/reference/j…)

如果学习完这些,那么恭喜你,你已经对音视频相关知识有了一些了解了.接下来你可以试着去接触一下著名的android-gpuimage,以及了解OpenGL相关的FBO,PBO,Texture等,可以处理视频编辑,简单实现美颜等滤镜了. 推荐一些OpenGL相关文章:


  1. 第一个OpenGL程序:blog.csdn.net/fuyajun01/a…
  2. 计算机图形学网络课程:netclass.csu.edu.cn/NCourse/hep…
  3. LearnOpenGl-CN:learnopengl-cn.readthedocs.io/zh/latest/0…
  4. opengl-tutorial:learnopengl-cn.readthedocs.io/zh/latest/0…
  5. OpenGl Pixel Buffer Object(PBO):www.songho.ca/opengl/gl_p…
  6. OpenGL深入探索——缓冲区对象(*BO):blog.csdn.net/panda1234le…
  7. OpenGL深入探索——像素缓冲区对象 (PBO):blog.csdn.net/panda1234le…
  8. Android 关于美颜/滤镜 利用PBO从OpenGL录制视频:www.jianshu.com/p/3bc4db687…
  9. EGL API Notes
  10. Learn OpenGL ES:www.learnopengles.com/android-les…
  11. OpenGL Transformation:www.songho.ca/opengl/gl_t…
  12. glsl_tutorial:zach.in.tu-clausthal.de/teaching/cg…
  13. GLSL ES(OpenGL ES着色器语言)_WebGL笔记9:www.ayqy.net/blog/glsl-e…
  14. OpenGL 纹理坐标 和 顶点坐标映射关系 详解:blog.csdn.net/xipiaoyouzi…
  15. www.khronos.org/registry/EG… OpenGL中FrameBuffer使用:blog.csdn.net/wl_soft50/a…


1.4 高级版本


进阶版本中处理的都是Java层数据,有时候我们要编码mp3,opus等,手机硬件编码器(就是MediaCodec)不支持,我们需要引入编解码器库(lame,opus),这些库都是c/cpp实现,我们要经过jni封装,但是jni是有消耗的,那么我们可以不可以直接在c/cpp层实现采集,编码,播放呢? 当然是YES,下面我们再来了解一下jni层的API:


  1. 图像采集: 图像采集可以使用Java Camera,通过给Camera Surface,Surface再给jni的MediaCodec,也可以试试<camera/NdkCameraManager.h>
  2. 声音采集: 了解一下<SLES/OpenSLES_Android.h> , <SLES/OpenSLES.h>, opensl的文档太粗陋,给你一份Android官方demo:github.com/android/ndk…
  3. 编解码: 了解一下<media/NdkMediaCodec.h>
  4. 封装(复用)器: <media/NdkMediaMuxer.h>
  5. 解封装(解复用)器: <media/NdkMediaExtractor.h>
  6. 图像渲染: ndk-bundle/toolchains/llvm/prebuilt/darwin-x86_64/sysroot/usr/include下的EGL, GLES, GLES2, GLES3等



如果了解到这,那么恭喜你,可以继续学习一些其他库了:


  1. lamemp3:Android只支持mp3解码,不支持mp3编码,幸好有lame:官网, 使用示例 文章介绍: 带你写一个Mp文件解析器-Mp3文件结构全解析(一),带你写一个Mp文件解析器-Mp3文件结构全解析(二)
  2. opus: 实时语音场景的首选是opus,但是Android还是只能解码不能编码,索性移步:官网,文章介绍Opus从入门到精通(一):简介,Opus从入门到精通(二):编解码器使用, Opus从入门到精通(三)手撸一个Opus编码程序,Opus从入门到精通(四)Opus解码程序实现,Opus从入门到精通(五)OggOpus封装器全解析,学习到这应该不再需要demo了,自己动手来一个吧
  3. aac: Android支持了aac硬件编解码,但是出于编码效率以及低端手机考虑,了解一下FAAC
  4. x264: Android默认支持了h264的编解码,但也是出于编码效率及低端手机考虑,了解一下x264
  5. ffmpeg: 现在终于可以了解下传说中的ffmpeg了,音视频界的万能神器.


1.5 终极阶段


现在你可以更深入的了解声音的本质,特性,图像的压缩原理等等,去理解时域与频域,去学习charlesliuyx.github.io/2018/02/18/…,这个时候可以把高等数学和线性代数翻出来了.


2.媒体部分


传输部分我们音视频领域主要用到的应用层协议:


  • http
  • rtmp
  • rtc


2.1基于http的音视频传输


Android上面的系统播放器MediaPlayer默认支持http的,可以传入一个远程的mp4地址给MediaPlayer播放.但是这种只能实现点播,如果要在http上实现直播的话,了解一下HLS以及HttpFLV:www.jianshu.com/p/32417d8ee…


2.2 rtmp


rtmp是adobe的产物,主要用于直播场景,主播一路上行,观众多路下行



具体资源,文章里都有介绍了


2.3 rtc


rtmp实现了直播,但要互动直播就需要rtc了.现在好多都是基于webrtc的二次开发.



3.资源整理


3.1 摄像头及录制相关


  • github.com/aserbao/And… : 自定义Android相机(仿抖音),其中功能包括视频人脸识别贴纸,分段录制,回滚删除,倒计时录制,视频裁剪,视频帧处理,获取视频第一帧,关键帧,视频旋转,滤镜添加,水印添加,Gif合成到视频,文字转视频,图片转视频,音视频合成,音频变声处理,SoundTouch,Fmod音频处理。
  • github.com/CJT2325/Cam… : 仿微信拍照Android控件(轻触拍照,长按摄像)
  • github.com/wuhaoyu1990… : Real-time Filter Camera&VideoRecorder And ImageEditor With Face Beauty For Android---包含美颜等40余种实时滤镜相机,可拍照、录像、图片修改,吸取了gpuimage很多滤镜
  • github.com/android/cam… : 谷歌官方demo


3.2 webrtc


  1. Pion WebRtc(github.com/pion/webrtc ):Pure Go implementation of the WebRTC API
  2. WebRtc 学而思镜像(gitlab.com/webrtc-mirr…):
  3. WebRtc声网镜像(webrtc.agora.io/mirror/)
  4. Flutter-p2p-engine(gitee.com/cdnbye/flut…):Flutter视频/直播APP省流量&加速,基于webrtc
  5. Android-p2p-engine(gitee.com/cdnbye/andr…):传输能力基于WebRTC Datachannel,可以与CDNBye的Web端插件互联互通
  6. UnityRenderStreaming(github.com/Unity-Techn…):Streaming Server for unity
  7. WebRTC的拥塞控制和带看策略(mp.weixin.qq.com/s/Ej63-FTe5…):
  8. WebRTC拥塞控制策略(www.freehacker.cn/media/webrt…)
  9. Google's BBR拥塞控制算法如何对抗diu丢包(blog.csdn.net/dog250/arti…)
  10. RTP Media Congestion Avoidance Techniques:datatracker.ietf.org/wg/rmcat/ch…
  11. medooze/media-server(github.com/medooze/med…):WebRTC Media Server
  12. 涂鸦开源voip:gitee.com/tucodec/rel…
  13. Jackarain/avplayer(github.com/Jackarain/a…):一个基于FFmpeg、libtorrent的P2P播放器实现
  14. EricssonResearch/openwebrtc:A cross-platform WebRTC client framework based on GStreamer www.openwebrtc.org
  15. webrtc/apprtc: The video chat demo app based on WebRTC. This project is currently on HOLD with minimal maintenance. appr.tc
  16. AirenSoft/OvenMediaEngine: OvenMediaEngine (OME) is a streaming engine for real-time live broadcasting with ultra-low latency. OvenMediaEngine.com/ome
  17. runner365/read_book:一点点从基础做起 从音视频协议原文精读翻译做起,欢迎交流指导!
  18. WebRTC in the real world: STUN, TURN and signaling:www.html5rocks.com/en/tutorial…
  19. WebRTC 的 Android 2 Android 实现:blog.csdn.net/youmingyu/a…
  20. webrtc进阶-信令篇-之四: 如何为WebRTC项目选择信令协议
  21. pristineio/webrtc-build-scripts: A set of build scripts useful for building WebRTC libraries for Android and iOS.
  22. weizhenwei www.jianshu.com/u/102fafe8c… Webrtc源码分析相关博客
  23. WebRTC代码走读(八):代码目录结构:blog.csdn.net/wanghorse/a…
  24. WEBRtc相关:www.wolfcstech.com/archives/


3.3 音视频标准/历史相关


  1. 编解码和视频处理技术介绍:wenku.baidu.com/view/0ce015…
  2. 多媒体技术基础第三方03章_数字声音编码:wenku.baidu.com/view/f098cf…
  3. 音视频系统培训资料(内部):wenku.baidu.com/view/3fa2be…
  4. 音视频编解码技术:wenku.baidu.com/view/419f83…
  5. 音视频专业知识:wenku.baidu.com/view/6ea5db…
  6. 音视频通信基础知识:wenku.baidu.com/view/7d3c24…
  7. 第二章音频的数字化:wenku.baidu.com/view/715444…
  8. 音视频技术及发展:wenku.baidu.com/view/4d4f13…


3.4 其他


  1. rainfly123/flvmuxer(github.com/rainfly123/…):This tool is used to encapsulate H264 and AAC to RTMP
  2. ant-media/LibRtmp-Client-for-Android(github.com/ant-media/L…):It is probably the smallest(~60KB, fat version ~300KB) rtmp client for android. It calls librtmp functions over JNI interface antmedia.io
  3. video-dev/hls.js(github.com/video-dev/h…):JavaScript HLS client using Media Source Extension hls-js.netlify.com/demo
  4. rao1219/VideoAnalysisTool(github.com/rao1219/Vid…):这是一款视频分析处理工具,目前嵌入了Visual Tracking功能,手动勾选视频中第一帧的某个物体,程序自动跟踪该物体在整个视频序列中的位置
  5. github.com/guoguo11/JS… JNI 调用C实现.speex转换为.wav;使用场景:微信高清语音.speex解码为.wav
  6. github.com/kaldi-asr/k… is the official location of the Kaldi project. kaldi-asr.org
  7. latelee/H264BSAnalyzer:H264(AVC) and H265(HEVC) bit stream Analyzer, VS2010 MFC project(Windows 7 x64).
  8. ZhengfengRao/rtp2mp4:recv rtp(h264+aac), save as mp4 file
  9. hmgle/h264_to_rtp:Send H264 file by RTP over UDP
  10. kn007/silk-v3-decoder:[Skype Silk Codec SDK]Decode silk v3 audio files (like wechat amr, aud files, qq slk files) and convert to other format (like mp3). Batch conversion support. kn007.net/topics/deco…
  11. SimpleLivePublisher.Lite github.com/gezhaoyou/S… : 简介的Android平台直播推流


其他资源持续整理输出中...


目录
相关文章
|
开发工具 Android开发 开发者
Android如何回调编码后的音视频数据
有开发者提到,在RTMP推送端的基础上,希望能回调编码后的音视频数据,便于开发者对接第三方系统,如GB28181.
|
编解码 监控 网络协议
Android平台音视频推送选RTMP还是GB28181?
早在2015年,我们发布了RTMP直播推送模块,那时候音视频直播这块场景需求,还不像现在这么普遍,我们做这块的初衷,主要是为了实现移动单兵应急指挥系统的低延迟音视频数据传输。好多开发者可能会疑惑,走RTMP怎么可能低延迟?网上看到的RTMP推拉流延迟,总归要2-3秒起,如果是自己实现框架,RTMP推拉流逻辑自己实现的话,延迟确实可以控制在毫秒级,这个已无需赘述。
102 0
|
Web App开发 数据采集 物联网
Android平台基于RTMP或RTSP的一对一音视频互动技术方案探讨
随着智能门禁等物联网产品的普及,越来越多的开发者对音视频互动体验提出了更高的要求。目前市面上大多一对一互动都是基于WebRTC,优点不再赘述,我们这里先说说可能需要面临的问题:WebRTC的服务器部署非常复杂,可以私有部署,但是非常复杂。传输基于UDP,很难保证传输质量,由于UDP是不可靠的传输协议,在复杂的公网网络环境下,各种突发流量、偶尔的传输错误、网络抖动、超时等等都会引起丢包异常,都会在一定程度上影响音视频通信的质量,难以应对复杂的互联网环境,如跨区跨运营商、低带宽、高丢包等场景,行话说的好:从demo到实用,中间还差1万个WebRTC。
150 0
|
监控 前端开发 网络协议
Android前端音视频数据接入GB28181平台意义
在我们研发Android平台GB28181前端音视频接入模块之前,业内听到最多的是,如何用Android或者Windows端,在没有国标IPC设备的前提下,模拟GB28181的信令和媒体流交互流程,实现GB28181整体方案的测试?
134 0
|
6月前
|
API Android开发
Android高手进阶教程(十五)之---通过Location获取Address的使用!
Android高手进阶教程(十五)之---通过Location获取Address的使用!
60 1
|
6月前
|
监控 Unix 应用服务中间件
Android-音视频学习系列-(八)基于-Nginx-搭建(rtmp、http)直播服务器
Android-音视频学习系列-(八)基于-Nginx-搭建(rtmp、http)直播服务器
|
2月前
|
Web App开发 网络协议 Android开发
Android平台一对一音视频通话方案大比拼:WebRTC VS RTMP VS RTSP,谁才是王者?
【9月更文挑战第4天】本文详细对比了在Android平台上实现一对一音视频通话时常用的WebRTC、RTMP及RTSP三种技术方案。从技术原理、性能表现与开发难度等方面进行了深入分析,并提供了示例代码。WebRTC适合追求低延迟和高质量的场景,但开发成本较高;RTMP和RTSP则在简化开发流程的同时仍能保持较好的传输效果,适用于不同需求的应用场景。
128 1
|
3月前
|
监控 Java 开发工具
### 绝招揭秘!Android平台GB28181设备接入端如何实现资源占用和性能消耗的极限瘦身?
【8月更文挑战第14天】本文介绍在Android平台优化GB28181标准下设备接入的性能方法,涵盖环境搭建、SDK集成与初始化。重点讲解内存管理技巧如软引用、按需加载资源,以及通过硬件加速解码视频数据和图像缩放来减轻CPU与GPU负担。同时采用线程池异步处理视频流,确保UI流畅性。这些策略有助于提高应用效率和用户体验。
42 0
|
5月前
|
存储 算法 Java
Android 进阶——代码插桩必知必会&ASM7字节码操作
Android 进阶——代码插桩必知必会&ASM7字节码操作
226 0
|
6月前
|
缓存 网络协议 Java
挑战全网,史上最全Android开发进阶,跳槽复习指南(1),掌握这6大技能体系
挑战全网,史上最全Android开发进阶,跳槽复习指南(1),掌握这6大技能体系