前段时间老是被客户投诉,说每天早上上班登陆我们的系统都要等好久。
终于下定决心要把这块优化下。
首先检查问题所在,调研发现客户的习惯是把浏览器cache过期时间设置为12个小时。
每天在上登陆的时候都需要重新再把全部的css,js,html,jpg。。。文件全部加载一遍。
而我们系统使用的gwt ext编写的前端页面,完全符合ajax的风格。
在用户登录之后,再也不做整体的页面刷新。也就是说,全部的js,html,css文件全部
被编译在了index.html之中。检查发现index.html有5M+,好吧,就是你的问题。。。
关于加快页面访问速度的实现,总体而言有两个努力的方向。
1:使用缓存。
2:压缩传输。
关于基于资源的Http Cache实现,参见robbin的相关文章,这里就跳过了。
http://robbin.iteye.com/blog/462476
主要讲下压缩传输文件的实现。
压缩文件的途径有两种:1 手动压缩JS,编写自己的过滤器(Filter),配置自己过滤器。2 使用工具包。
1 我只相信自己写的代码
【1】将js文件手动压缩。如项目中的ext-all.js 和 ext-core.js.使用gzip压缩,压缩之后将
文件后缀改为.gzjs.(压缩比例大致为70%)。
【2】编写Filter。
public class GzipJsFilter implements Filter
{
Map headers = new HashMap();
public void destroy() { }
public void doFilter(ServletRequest req, ServletResponse res, FilterChain chain)throws IOException, ServletException {
if (req instanceof HttpServletRequest)
doFilter((HttpServletRequest)req, (HttpServletResponse)res, chain);
else
chain.doFilter(req, res);
}
public void doFilter(HttpServletRequest request, HttpServletResponse response,FilterChain chain)
throws IOException, ServletException
{
request.setCharacterEncoding("UTF-8");
for (Iterator it = this.headers.entrySet().iterator(); it.hasNext(); ) {
Map.Entry entry = (Map.Entry)it.next();
response.addHeader((String)entry.getKey(), (String)entry.getValue());
}
chain.doFilter(request, response);
}
public void init(FilterConfig config) throws ServletException {
String headersStr = config.getInitParameter("headers");
String[] headers = headersStr.split(",");
for (int i = 0; i < headers.length; ++i) {
String[] temp = headers[i].split("=");
this.headers.put(temp[0].trim(), temp[1].trim());
}
}
}
领会精神,主题思想就是加文件头和取文件头。
【3】配置web.xml
GzipJsFilter com.monica.bussiness.GzipJsFilter headers Content-Encoding=gzip GzipJsFilter *.gzjs
加入过滤器配置。指定我们需要解压的文件类型。
2 我不想写自己的轮子
【1】下载tk-filter工具包。下载地址 http://sourceforge.net/projects/filterlib
【2】将解压后得到的jar包引入工程。将tk-filters.properties加入工程WEB-INF/class目录下
修改tk-filters.properties GZIPFilter.Enabled=true
(其他还有几个打印压缩比例之类的控制,自己改变参数选择就可以了)
【3】配置web.xml
GZIPFilter com.tacitknowledge.filters.gzipfilter.GZIPFilter GZIPFilter *.js GZIPFilter *.css GZIPFilter *.html GZIPFilter *.gif
我们来看下压缩之后网络传输的大小
Elapsed Time 2.915 seconds
Network Round Trips 2
Downloaded Data 1258448 bytes
Uploaded Data 989 bytes
HTTP Compression Savings 4585156 bytes
DNS Lookups 0
TCP Connects 0
(使用工具为HttpWatcher 下载地址 http://www.httpwatch.com/download/)
压缩之后index页面大小为 1.1M,ext-all.js大小为138k。 压缩比例在80%左右。
推荐使用tk-filter,因为不仅不需要你新加入代码(预示着你需要重新测试),而且可以简便的配置
各个类型的文件,如html等。当然,手动压缩html也可以,但是这样你就需要每次在发布新版本的时候
都需要把新编译的html文件重新压缩一遍。在自动构建的过程中,这简直就是个灾难。