ConcurrentHashMap使用注意事项

最近发现内存中WriteThroughEntry数量突然很巨大,经过反复分析查找,发现是由于遍历ConcurrentHashMap不当导致的,遍历时尽量使用values(),使用ConcurrentHashMap的entrySet()遍历会产生大量WriteThroughEntry对象,从源码中可以看到ConcurrentHashMap中的EntryIterator对象重载的next()方法里每次都会创建一个WriteThroughEntry对象返回,而HashMap、TreeMap则不会出现这种情况。

 

 

ConcurrentHashMap在迭代器遍历的时候,可以对ConcurrentHashMap进行添加和删除数据,添加或删除的数据不会影响本次遍历的结果,只有下一次遍历ConcurrentHashMap的时候才会体现出效果来

你可能感兴趣的:(java)