Hibernate3.2大批量操作数据

flush 时将一级缓存与数据库同步.

大批处理:

大量操作数据时,可能会造成内存溢出,解决方法:
1,清除Session中的数据,

业务逻辑为:我们要想数据库插入10 0000 条数据
for(int i=0;i<100000;i++){
session.save(obj);

// 以每50个数据作为一个处理单元,也就是我上面说的“一定的量”,这个量是要酌情考虑的
if(i%50==0){

session.flush;
session.clear();
}
}

2,用StatelessSession接口,它不与一级缓存和二级缓存交互,也不触发任何事件,
监听器,拦截器,通过该接口的操作会立刻发送给数据库,与JDBC功能一样,
StatelessSession s = sessionFactory.openStatelessSession();
该接口的方法与Session类相似.

3.Query.executeUpdate()执行批量更新,会清除相关联的类二级缓存
(sessionFactory.evict(class)),也可能会造成级联,和乐观锁出现问题



如果大家有更好的方法,欢迎提出!

你可能感兴趣的:(jdbc)