ConcurrentHashMap压力测试结果

1、往ConcurrentHashMap中连续写100W条数据花了2000毫秒,从这100W条数据中查询花了1毫秒

2、往ConcurrentHashMap中连续写500W条数据花了18420毫秒,从这500W条数据中查询花了1毫秒

3、往ConcurrentHashMap中连续写1000W条数据服务器超时

 

以上结果表示ConcurrentHashMap在于写的瓶颈,读没有压力

 

			System.out.println("before:"+System.currentTimeMillis());
			for (int i = 1;i<5000000;i++){
				NettyCache.UserID.put("" + i, i);
			}
			System.out.println("after:"+System.currentTimeMillis());
			int userid = NettyCache.UserID.get("10000");
			System.out.println("end:"+System.currentTimeMillis());

 

补充:其实上面写500W条记录不需要18秒那么久的,大概就7秒左右,以上的代码大部分时间都花在类型转换上面了,如果不需要类型转换的话,大概就7秒左右

你可能感兴趣的:(java)