背景
关于druid的详情就不介绍了,阿里巴巴出品的一个非常优秀的开源数据库连接池框架(和OLTP的那个druid不是一个额,我当初也混乱过,哈哈哈),据说是Java端最好的数据库连接池了,有兴趣的小伙伴可以直接看github上的项目——传送门
那么为了将这个优秀的项目应用到自己的生产环境中,起到传说中为监控而生的作用,我们希望能:
- 能将缓慢的日志输出到日志文件中
- 能将性能统计数据(每个sql的执行次数、每个connection的调用次数等)不仅通过网页展示,也能保存成日志格式
- 所有的这些日志能够分散到不同的文件中去,以方便统计和查看
但是在实际的配属过程中,因为对log4j的配置也不是特别熟悉,走了一些弯路,就干脆趁热先把这些问题和方案记录下来,以免之后忘记,在上正式环境的时候又出错。而且也希望如果有相同疑惑的小伙伴能节约一些时间。
问题详述
其实druid的功能确实很强大,而且各种场景和灵活性都很高
本身其对日志输出的功能也是很完善的,但是问题在于有些文档,实在是感觉有点尴尬……
因为我们之前使用的是DBCP的连接池,所以整个迁移过程异常简单(不得不赞一个啊),只用简单的在application.xml文件中替换实现类就ok了,而且全部分的如何配置日志,如果配置servlet的过程在github上说的也还是蛮清楚的,照着试一下,很快就走通。
但是~ 当我想通过log4j对这些日志做输出的时候,问题就突然有点尴尬了起来。
首先我通过官网的文档,发现通过配置自己的myStatLogger来自己实现log的函数,就能很简单的通过自定义的方式来将这部分数据统计日志记录到自己制定的Log日志中去。具体的github上说明如下,配置三个地方即可:
... ...
... ...
... ...
... ...
... ...
// 实现自己的Java实现
import com.alibaba.druid.pool.DruidDataSourceStatLoggerAdapter;
import com.alibaba.druid.pool.DruidDataSourceStatLogger ;
public class MyStatLogger extends DruidDataSourceStatLoggerAdapter implements DruidDataSourceStatLogger {
... ...
}
之后一切看起来都很完美,数据周期的进入到了我需要的日志中去。但是一切发生在我又把记录slowSQL打开之后,因为我想把这部分日志单独输出到另一个日志文件中去。applicationContext.xml中的配置如下(来源于git):
结果发现,配置对应的log4j.properities后,并没有生效,而且同过bean方式来注入也不行,因为结合错误信息和源码发现这几个filter中的log是包装之后通过logFactory生成,类型不同造成了不能直接简单的注入。
而且总觉得这种强行注入的方式也不是很优雅,毕竟能够统一走配置文件当然是最好的。
这时候,发现slowSql的打印,不仅出现在了新配置的Log里面而且还影响了之前已经分类和处理好的一些日志里面,于是觉得还是配置的问题,理解的不够深入。
搜索了很多资料,感觉都讲的比较简单,没有特别具体的方案。
直到发现了这篇来自于阿里云的文章log4j,slf4j (日志记录工具),里面提供了对包名进行过滤的说明
同时还对为什么会对其它日志产生影响的说明,如下:
5.1 指定logger名字
log4j.logger.myLogger=info,appender3
若不加这一行,rootLogger同样会记载此logger的日志
log4j.additivity.myLogger=false
log4j.appender.appender3=org.apache.log4j.ConsoleAppender
log4j.appender.appender3.layout=org.apache.log4j.TTCCLayout
对应的java语句见下:
static final Logger myLogger = LoggerFactory.getLogger("myLogger");
5.2 限定包名
如 log4j.logger.com.likeyichu.proa=info,myAppender
在java中正常用 Logger logger=Logger.getLogger(myClass.class);
这简直就是量身定做啊!瞬间整个人都开心了,于是查看了一下druid的源码,发现正好我需求的这两个filter在不同的包名下,于是一切变得明朗起来!
更爽的是,顺便看了一下对源码之后,发现其实druid已经自动多DruidDataSourceStatLoggerAdapter提供了默认的实现DruidDataSourceStatLoggerImpl,而且里面对生成的统计数据的处理已经很完善了,至少现阶段是没有必要再次重写这些方法的(对于我这种懒癌患者简直就是福音!几百行的代码就这么省了!爽~)
@Override
public void log(DruidDataSourceStatValue statValue) {
if (!isLogEnable()) {
return;
}
Map map = new LinkedHashMap();
map.put("url", statValue.url);
map.put("dbType", statValue.getDbType());
map.put("name", statValue.getName());
map.put("activeCount", statValue.getActiveCount());
// 以下省略若干行
// ……
String text = JSONUtils.toJSONString(map);
log(text);
}
解决方案
鉴于上面的一些发现,一切开始变得优雅起来,只需要对log4j.properities进行一些改进,就完美~
不废话了直接上答案,啊哈哈哈:
### druid related log config
log4j.rootLogger=ERROR,SYS,SVC,DruidStat,DruidSql
log4j.logger.com.alibaba.druid.filter.stat=INFO,DruidSql
log4j.additivity.com.alibaba.druid.filter.stat=false
log4j.logger.com.alibaba.druid.pool=INFO,DruidStat
log4j.additivity.com.alibaba.druid.pool=false
log4j.appender.DruidStat=org.apache.log4j.RollingFileAppender
log4j.appender.DruidStat.File=${catalina.home}/xxxLogs/druid_logs/druid_stat.log
log4j.appender.DruidStat.layout=org.apache.log4j.PatternLayout
log4j.appender.DruidStat.layout.ConversionPattern=%d - %c [%t] %-5p %x - %m%n
log4j.appender.DruidSql=org.apache.log4j.RollingFileAppender
log4j.appender.DruidSql.File=${catalina.home}/xxxLogs/druid_logs/druid_sql.log
log4j.appender.DruidSql.layout=org.apache.log4j.PatternLayout
log4j.appender.DruidSql.layout.ConversionPattern=%d - %c [%t] %-5p %x - %m%n
启动项目,运行,问题clear~
最后还想吐槽一句:druid做的真是不错,但是这个日志文档真的有点伤不起啊,还有源码里面那个{}的方式,怎么都感觉有点像邪教,虽然确实用的也蛮有道理的,哈哈哈
enjoy~ :)