有过ftp下载文件经验的人都有体验,单独下载一个100M的文件比分开下载100个1M的文件速度快很多,这是因为下载需要解析域名,建立连接等额外开销的时间,因此下载100个文件就要做100次这种额外的开销。因此如果把这个100个文件整合成一个文件下载速度会快很多。
基于上述的方法,可以对HTML中的JS文件也做类似的处理,无论js文件多少个,通过配置文件,把N个js文件合并到一个文件下载。实现手段通过httpHandler。具体代码如下:
web.config文件中:
- <httpHandlers>
- <add verb="*" path="MergedJS.js" type="MergeJS.GetJS"/>
- </httpHandlers>
只对MergedJS.js的请求文件作合并,具体请求到哪个文件,有querystring参数给定,比如本例中使用MergedJS.js?jsid=myjs这种方式。对于其他类型的js文件,则按照IIS默认的请求方式处理。
- <appSettings>
- <add key="myjs" value="jquery-1.4.1-vsdoc.js,
- jquery-ui-1.8.16.custom.min.js,
- jquery-1.4.1.js,
- jquery-1.7.min.js,
- jquery-1.5.2.min.js,
- jquery-1.4.1.min.js,
- jquery.maskedinput-1.3.js,
- json2.min.js,
- jquery.hotkeys-0.0.3.js,
- jquery.loadmask.min.js,
- My.js"/>
- </appSettings>
上述配置,主要用来指定myjs使用哪些文件来合并。
MergeJS.GetJS 这个HttpHandler主要用来处理js。此处涉及到一个缓存的问题,通常情况下,js文件会默认缓存在本地浏览器缓存中,但是对于MergedJS.js这种通过httpHandler所处理的,被视为动态内容,并不会缓存在浏览器中,而是每次都会从服务器端获取最新的内容。因此可以通过编码,强制使用浏览器缓存。
由于反复读取js所做IO操作也是性能瓶颈,因此在global中首先将所有的js预读存在dictionary中,用的时候直接从dictionary中输出,避免了IO操作。代码能够判断js文件是否做了修改,如果修改了,dictionary中的值也会得到更新。
Handler处理部分的代码如下:
- /// <summary>
- /// GetJS 的摘要说明
- /// </summary>
- public class GetJS : IHttpHandler
- {
- public void ProcessRequest(HttpContext context)
- {
- context.Response.ContentType = "application/x-javascript";//表示是javascript文件类型
- string jsid = context.Request.Params["jsid"].ToString();
- //获取所有需要Merge的文件
- string[] jsfiles = System.Configuration.ConfigurationManager.AppSettings[jsid].ToString().Replace("\r", "").Replace("\n", "").Split(',');
- //记录文件的最后修改时间,取最新修改的那个文件的时间。
- DateTime lastChangeTime = new DateTime();
- StringBuilder sb = new StringBuilder();
- foreach (var js in jsfiles)
- {
- if (Global.dic_jsfiles.ContainsKey(js))
- {
- DateTime tmplastDateTime = new FileInfo(Global.dic_jsfiles[js].filefullName).LastWriteTime;
- tmplastDateTime = DateTime.Parse(tmplastDateTime.ToString("yyyy-MM-dd HH:mm:ss"));//去除毫秒信息。
- if (tmplastDateTime > Global.dic_jsfiles[js].lastModifiedTime)//如果最后修改时间更改,更新dic_jsfiles内容
- {
- Global.dic_jsfiles[js].content = Common.ReadFile(Global.dic_jsfiles[js].filefullName);//读取新的文件
- Global.dic_jsfiles[js].lastModifiedTime = tmplastDateTime;
- }
- }
- else//如果不存在,则读取该文件
- {
- string filename = context.Request.PhysicalApplicationPath + "Scripts\\" + js.Trim();
- Global.dic_jsfiles.Add(filename,new jsFileInfo() {
- filefullName = filename,content=Common.ReadFile(filename),lastModifiedTime=new FileInfo(filename).LastWriteTime
- });
- Common.ReadFile(Global.dic_jsfiles[js].filefullName);
- }
- sb.Append(Global.dic_jsfiles[js].content + ";");
- }
- //文件最后修改时间
- lastChangeTime = Global.dic_jsfiles.Max(m => m.Value.lastModifiedTime);
- DateTime If_Modified_Since = new DateTime();
- if (context.Request.Headers["If-Modified-Since"] == null || context.Request.Headers["If-Modified-Since"] == "")
- {
- If_Modified_Since = new DateTime(1900, 1, 1);//如果读取的请求头中If-Modified-Since没有值,就给它一个默认值为19000101
- }
- else
- {
- If_Modified_Since = DateTime.Parse(context.Request.Headers["If-Modified-Since"]);
- }
- if (If_Modified_Since >= lastChangeTime)//如果客户端请求头中的时间最后一次修改时间,比真实的最后修改时间还新,则直接返回304代码
- {
- context.Response.StatusCode = 304;//返回304代码,使其读取缓存
- context.Response.End();
- }
- else//否则
- {
- //显示内容
- context.Response.AddHeader("last-modified", lastChangeTime.ToString());
- }
- context.Response.Write(sb.ToString());
- }
- private string ReadFile(string filename)
- {
- using (StreamReader sr = new StreamReader(filename, System.Text.UTF8Encoding.UTF8))
- {
- return sr.ReadToEnd();
- }
- }
- public bool IsReusable
- {
- get
- {
- return false;
- }
- }
- }
效果如下:使用组合下载的情况,js的下载耗费时间73ms。
但是分开下载的话就比较耗时。
当然,并不是合并为一个文件,下载的速度就一定快,具体的下载速度和策略还受到浏览器的影响,有的浏览器同时开的请求线程多,也会影响下载速度。但是总体来说,如果文件数多的话,下载单一文件总会快点的。
附件:http://down.51cto.com/data/2361588'
本文转自cnn23711151CTO博客,原文链接: http://blog.51cto.com/cnn237111/1026666,如需转载请自行联系原作者