Hibernate的批量操作

在实际的操作中,会经常的遇到批量的操作,使用Hibernate将 100条记录插入到数据库的一个很自然的做法可能是这样的



这样看起来似乎也没有太大的问题,但是我们设想一下,如果现在批量的操作是100000,或者更多,问题就出现了,这段程序大概运行到 50 000 条记录左右会失败并抛出内存溢出异常(OutOfMemoryException)。 这是因为 Hibernate 把所有新插入的用户(User)实例在 session级别的缓存区进行了缓存的缘故。

实际操作中避免这样的情况很有必要,那么使用JDBC的批量(batching)功能是至关重要,将JDBC的批量抓取数量(batch size)参数设置到一个合适值 (比如,10-50之间):

hibernate.jdbc.batch_size 20

你也可能想在执行批量处理时关闭二级缓存:



批量插入(Batch inserts) 
 

如果要将很多对象持久化,你必须通过经常的调用 flush() 以及稍后调用 clear() 来控制第一级缓存的大小,防止内存溢出异常





  
   

批量更新(Batch update)

此方法同样适用于检索和更新数据。此外,在进行会返回很多行数据的查询时, 你需要使用 scroll() 方法以便充分利用服务器端游标所带来的好处。





    
大批量更新/删除(Bulk update/delete)
使用Query.executeUpdate()方法执行一个HQL UPDATE语句: 


执行一个HQL DELETE,同样使用 Query.executeUpdate() 方法 (此方法是为 那些熟悉JDBC PreparedStatement.executeUpdate() 的人们而设定的)




你可能感兴趣的:(Hibernate)