Apache LRU算法问题分析解决
UDL(United Data Load)是公司开发用于通用数据加载工具,支持抽取设置、作业定义并提供页面监控等功能,在某一项目中中多次出现了UDL作业调度出现问题,由于该问题隐藏得较深,分析解决花了较多的精力,现把经验总结共享给大家。
1. 问题现象
问题一般是UDL运行3-5天才出现,出现错误现象是固定的,后台抛出如下异常(红色部分是下面分析的切入点):
1
2011-10-08 01:05:00,078 [] ERROR - 作业:DELETE_F_TABLE_ALL_WORKID运行过程中发生不可预知的错误,当前作业在本次调度中终止运行,发生不可预知的错误,这通常是基础信息配置有误,或运行环境异常导致,等原因,请根据错误提示信息,检查错误原因 [URuntimeJob:runJob]
2
java.lang.IllegalStateException: Entry.next=
null
, data[removeIndex]=resoft.udl.schedule.JobKey@600a5e7d=
false
previous=resoft.udl.schedule.JobKey@74a3b4ef=
false
key=resoft.udl.schedule.JobKey@fb09e543 value=
true
size=150 maxSize=150 Please check that your keys are immutable, and that you have used synchronization properly. If so, then please report
this
to [email protected] as a bug.
3
at org.apache.commons.collections.map.LRUMap.reuseMapping(LRUMap.java:300)
4
at org.apache.commons.collections.map.LRUMap.addMapping(LRUMap.java:266)
5
at org.apache.commons.collections.map.AbstractHashedMap.put(AbstractHashedMap.java:283)
6
at resoft.udl.jetlValidate.logicValidate.validator.ValidatorFactory.setJobOver(ValidatorFactory.java:57)
7
at resoft.udl.job.URuntimeJob.runJob(URuntimeJob.java:389)
8
at resoft.udl.job.URuntimeJob.execute(URuntimeJob.java:132)
9
at org.quartz.core.JobRunShell.run(JobRunShell.java:202)
10
at edu.emory.mathcs.backport.java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:987)
11
at edu.emory.mathcs.backport.java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:528)
12
at java.lang.Thread.run(Thread.java:595)
2. 问题分析
跟踪了UDL代码 ValidatorFactory.java中setJobOver方法
1
private
static
Map isJobOverMap =
new
LRUMap(100);
2
public
static
void
setJobOver(String jobid, String date,
boolean
isTaskJobOver) {
3
isJobOverMap.put(
new
JobKey(jobid, date), Boolean.valueOf(isTaskJobOver));
4
}
在LRUMap.java 调用的代码如下(红色为抛出异常点):
1
protected
void
reuseMapping(LinkEntry entry,
int
hashIndex,
int
hashCode, Object key, Object value) {
2
try
{
3
int
removeIndex = hashIndex(entry.hashCode, data.length);
4
HashEntry[] tmp = data;
//
may protect against some sync issues
5
HashEntry loop = tmp[removeIndex];
6
HashEntry previous =
null
;
7
while
(loop != entry && loop !=
null
) {
8
previous = loop;
9
loop = loop.next;
10
}
11
if
(loop ==
null
) {
12
throw
new
IllegalStateException(
13
……
14
}
从获取的日志结合出错现象分析,出错可能有如下几个方面:
- 网络问题 由于网络中断造成数据库连接出现中断,但该问题出现比较有规律,实际情况出现的可能性很小,初步排除;
- 数据库连接超时时间 数据库连接时间设置不足引起连接被注销,通过后面设置数据库连接超时来看,并不是该问题造成的,可以排除;
- 使用LRU算法出错 所谓LRU是Least Recently Used最近最少使用算法,主要是防止使用内存过大,造成内存溢出的一种方法,在编程中主要用于存放使用即可抛弃的对象。UDL存放作业是否完成的状态,有可能出现存放状态的对象被挤出内存情况,造成获取状态时无法找到,这个问题可能性较大,作为后面分析的重点;
- 线程同步问题 由于Apache中LRU算法是非线程安全的,LRU中存放对象达到最大数量调用LRU算法reuse内存空间,由于非线程安全可能出现两个进程同时操作一个内存区域造成错误,可能性非常大;
从更深入了解客户现场定义的作业将近100多个,设置LRU的最大数量为150,这样在运行一段时间后达到了LRU设置的最大数量,此时将调用LRU算法进行内存清理、替换,出现如上问题。
3. 问题解决
通过问题分析,我们大致清楚了LRU算法及线程同步是解决问题的方法,提出了两个解决方案:
- 不使用LRU算法,通过手工管理作业生命周期
- 在代码中加入线程同步的代码
对比两个方案第一种方案会比较彻底,但改动较大,第二种方案比较简单,故先采用第二种方案,红色部分为修改。
1
public
static
void
setJobOver(String jobid, String date,
2
boolean
isTaskJobOver) {
3
4
synchronized
(isJobOverMap) {
5
isJobOverMap.put(
new
JobKey(jobid, date), Boolean.valueOf(isTaskJobOver));
6
}
7
}
通过如上修改解决了问题。
4. 需要注意
通过以上问题和代码分析解决了隐藏较深的一个Bug,可以借鉴的经验有:
- 慎用LRU算法,最好存放使用即抛弃对象不存在问题;对于存放需要维护的对象时,最好不使用,存在需休眠对象被清除的风险;
- 特别要注意线程安全问题,需进行同步。