准备工作:
1:Net Core 2.1 为何要用2.1,因为在macOS 10.13上一个奇怪的问题,请看另一篇博文
2:FFmpeg 版本无所谓,最新即可,安装教程网上很多,当然也可以使用docker进行ffmpeg的部署,下载地址 http://ffmpeg.org/download.html
3:Rider 2018.1.2 在多平台上,比微软爸爸的VS好用,在window上肯定不如VS,当然你喜欢VSCODE也可以,毕竟JET的全家桶更好吃,哈哈。
目前准备工作就这样,后续需要添加的时候再一一告知。
好了,开始码砖。
创建一个简单的Net core web api应用程序
当你使用dotnet new或者使用IDE创建完成一个web项目后,该项目就已经可以运行,不过只是一个空壳子,我们需要一些存储全局变量和控制程序启动的方式。在Program.cs中的Main函数修改如下
1 public static void Main(string[] args) 2 { 3 var config = new ConfigurationBuilder() 4 .AddCommandLine(args) 5 .Build(); 6 7 General.ConfigurationBuilder = config; 8 General.LocalHostUrl = config["ASPNETCORE_URLS"]; 9 General.isOpenMiddleware = bool.Parse(config["OPEN_MIDDLEWARE"]); 10 11 var host = new WebHostBuilder() 12 .UseEnvironment(config["ASPNETCORE_ENVIRONMENT"]) 13 .UseUrls(config["ASPNETCORE_URLS"]) 14 .UseConfiguration(config) 15 .UseKestrel() 16 .UseContentRoot(AppDomain.CurrentDomain.BaseDirectory) 17 .UseIISIntegration() 18 .UseStartup() 19 .Build(); 20 21 host.Run(); 22 }
相信不用解释太多,各位也明白上面每条语句的作用。笔者使用General静态类存储了来之外部命令的启动参数,这种方式可以避免使用launcthSettings.json进行文件配置,通过启动参数直接给定运行方式和环境配置。在使用的过程中可以通过例如:--ASPNETCORE_ENVIRONMENT=Development --ASPNETCORE_URLS=http://localhost:5023 --OPEN_MIDDLEWARE=true进行启动,前两个参数不解释,第三个参数是为了方便多台服务器部署时候,是否启动相关的自定义中间件(相关中间件后续章节介绍)。既然本节介绍FFmpeg的使用,那么接下来我们讨论FFmpeg的使用方式。
ffmpeg是什么
从度娘(当然你要用谷歌也行)上面抄个介绍:FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多code都是从头开发的。
简单的说:就是可以处理音视频媒体的开源程序。
安装方式这里不做阐述,安装完成后输入ffmpeg会得到如下信息。
请忽略截图中的问号和乱码,不想去折腾zsh。
在http://ffmpeg.org/官网上有详细命令的使用和介绍,这里介绍个简单的命令
ffmpeg -i input.mp4 output.avi
该命令输入一个input.mp4 文件,输出一个output.avi文件,ffmpeg自动将mp4转码为avi文件并输出到当前硬盘目录,就这么简单!
通过Process类进行简单的进程通讯
当然,我们不可能通过纯手动的命令行的方式去得到自己想要的文件,这种方式对于服务器而言也不可取,不过,Net为我们提供了Process进行与进程间通讯的简单访问,其实最多也就是命令行的调用,编写一个通用的处理方法,方便不同地方的调用。
1 public void DoProcessing(string param, ProcessType processType = ProcessType.Ffmpeg) 2 { 3 try 4 { 5 _process.StartInfo.FileName = GetEnvironmentalFfmpeg(GetProcessName(processType)); 6 _process.StartInfo.Arguments = param; 7 _process.StartInfo.CreateNoWindow = true; 8 _process.StartInfo.UseShellExecute = false; 9 _process.StartInfo.RedirectStandardOutput = true; 10 _process.StartInfo.RedirectStandardInput = true; 11 _process.StartInfo.RedirectStandardError = true; 12 13 _process.ErrorDataReceived += (sender, args) => 14 { 15 if (sender is Process p && p.HasExited && p.ExitCode == 1) 16 { 17 Console.WriteLine("have an error:" + args.Data); 18 } 19 }; 20 21 if (processType == ProcessType.Ffprobe) 22 { 23 _process.ErrorDataReceived += (sender, args) => 24 { 25 if (args.Data == "") return; 26 FfprobeDataReceivedEventHandlerArgs?.Invoke(sender, args); 27 }; 28 } 29 30 _process.Start(); 31 _process.BeginErrorReadLine(); 32 _process.WaitForExit(); 33 } 34 catch (Exception ex) 35 { 36 Console.WriteLine(ex); 37 } 38 finally 39 { 40 _process.Close(); 41 _process.Dispose(); 42 } 43 }
以上实现方式都非常简单,这里笔者增加了一个委托FfprobeDataReceivedEventHandlerArgs函数,方便触发输出事件ErrorDataReceived在其他类中方便被调用,而Ffprobe能获取到音视频媒体的详细信息,后面代码中会介绍。
GetEnvironmentalFfmpeg是笔者为了偷懒,在windows中并没直接安装ffmpeg程序,而是将exe程序直接绑在了项目dll中,方便该项目在其他win平台的二次调用,而免去再次安装的繁琐问题(linux和mac没法偷懒,除非用docker直接拷贝镜像文件)
GetProcessName函数就是一个主命令的选择方式,ffmpeg中包含三个主要命令,ffmpeg用于处理音视频,ffplay用于播放,ffprobe用于获取信息,常用的主命令也就ffmpeg和ffprobe。
简单的参数工厂
当然,我们通过一个简单的主函数去调用ffmpeg命令是远远不够的,还需要根据不同的需求封装一下参数字符串的拼接方式,毕竟这么多参数我可记不住,呵呵。笔者提供一个思路和模板,有兴趣的朋友的借鉴和参考一下。
1 /// 2 /// FFMPEG参数构造工厂 3 /// 4 public class AudioParamFactory 5 { 6 private static string GetRandFileName() 7 { 8 return GetDictory() + "temp/" + GetRandomString(6, true, true, true, false, "") + ".mp3"; 9 } 10 11 private static string GetDictory() 12 { 13 return AppDomain.CurrentDomain.BaseDirectory; 14 } 15 16 /// 17 /// 調整音量大小 18 /// 19 ///
至此,我们在Net Core Web App上面已经创建了一个基于ffmpeg的Web程序,目前运行没有任何效果的,下一节我们将这个Web程序进行小部分的完善,并开始处理音频文件的第一个问题。
感谢阅读!