`

Hibernate中如何高效处理海量数据

阅读更多

原文 http://blog.csdn.net/mikie_hi/archive/2009/10/23/4718671.aspx

 

最近一直常常看到别人javaeye网站上看到别人在问在hibernate怎么样处理海量数据,怎么样提高性能,本人在CSDN博客上看到这篇好的文章,并结合本人一一验证 确实如作者所说 故拿出来和大家分享。希望对初学HIBERNATE框架的朋友有所帮助。
Hibernate 批量处理海量其实从性能上考虑,它是很不可取的,浪费了很大的内存。从它的机制上讲,Hibernate它是先把符合条件的数据查出来,放到内存当中,然 后再进行操作。实际使用下来性能非常不理想,在笔者的实际使用中采用下面的第三种优化方案的数据是:100000条数据插入数据库, 需要约30分钟,呵 呵,晕倒。(本人10分钟插入1000000条数据(字段比较小)我的爱机是宏基Aspire 4920)
    总结下来有三种来处理以解决性能问题:

    1:绕过Hibernate API ,直接通过 JDBC API 来做,这个方法性能上是比较好的。也是最快的。

    2:运用存储过程。


    3:还是用Hibernate API 来进行常规的批量处理,可以也有变,变就变在,我们可以在查找出一定的量的时候,及时的将这些数据做完操作就


    删掉,session.flush();session.evict(XX对象集); 这样也可以挽救一点性能损失。这个“一定的量”要就要根据实际情况做定量参考了。一般为30-60左右,但效果仍然不理想。

    1:绕过Hibernate API ,直接通过 JDBC API 来做,这个方法性能上是比较好的,也是最快的。(实例为 更新操作)

    Transaction tx=session.beginTransaction(); //注意用的是hibernate事务处理边界


    Connection conn=session.connection();


    PreparedStatement stmt=conn.preparedStatement("update CUSTOMER as C set C.sarlary=c.sarlary+1 where c.sarlary>1000");

    stmt.excuteUpdate();

    tx.commit(); //注意用的是hibernate事务处理边界


    这小程序中,采用的是直接调用JDBC 的API 来访问数据库,效率很高。避免了Hibernate 先查询出来加载到内存,再进行操作引发的性能问题

    。

    2:运用存储过程。但这种方式考虑到易植和程序部署的方便性,不建议使用。(实例为 更新操作)

    如果底层数据库(如Oracle)支持存储过程,也可以通过存储过程来执行批量更新。存储过程直接在数据库中运行,速度更加快。在Oracle数

    据库中可以定义一个名为batchUpdateCustomer()的存储过程,代码如下:

    代码内容create or replace procedure batchUpdateCustomer(p_age in number) as begin update CUSTOMERS set AGE=AGE+1 where AGE>p_age;end;

    以上存储过程有一个参数p_age,代表客户的年龄,应用程序可按照以下方式调用存储过程:

    代码内容


    tx = session.beginTransaction();


    Connection con=session.connection();


    String procedure = "{call batchUpdateCustomer(?) }";


    CallableStatement cstmt = con.prepareCall(procedure);

    cstmt.setInt(1,0); //把年龄参数设为0

    cstmt.executeUpdate();

    tx.commit();


    从上面程序看出,应用程序也必须绕过Hibernate API,直接通过JDBC API来调用存储过程。


3:还是用Hibernate API 来进行常规的批量处理,可以也有变,变就变在,我们可以在查找出一定的量的时候,及时的将这些数据做完操作就

    删掉,session.flush();session.evict(XX对象集); 这样也可以挽救一点性能损失。这个“一定的量”要就要根据实际情况做定量参考了……

    (实例为 保存操作)


    业务逻辑为:我们要想数据库插入10 0000 条数据

    tx=session.beginTransaction();

    for(int i=0;i<100000;i++)


    {

    Customer custom=new Customer();

    custom.setName("user"+i);


    session.save(custom);

    if(i%50==0) // 以每50个数据作为一个处理单元,也就是我上面说的“一定的量”,这个量是要酌情考虑的

    {

    session.flush();

    session.clear();

    }

    }

    这样可以把系统维持在一个稳定的范围……

    在项目的开发过程之中,由于项目需求,我们常常需要把大批量的数据插入到数据库。数量级有万级、十万级、百万级、甚至千万级别的。如此数量级别的数据用 Hibernate做插入操作,就可能会发生异常,常见的异常是OutOfMemoryError(内存溢出异常)。

    首先,我们简单来回顾一下Hibernate插入操作的机制。Hibernate要对它内部缓存进行维护,当我们执行插入操作时,就会把要操作的对象全部放到自身的内部缓存来进行管理。

    谈到Hibernate的缓存,Hibernate有内部缓存与二级缓存之说。由于Hibernate对这两种缓存有着不同的管理机制,对于二级缓存,我 们可以对它的大小进行相关配置,而对于内部缓存,Hibernate就采取了“放任自流”的态度了,对它的容量并没有限制。现在症结找到了,我们做海量数 据插入的时候,生成这么多的对象就会被纳入内部缓存(内部缓存是在内存中做缓存的),这样你的系统内存就会一点一点的被蚕食,如果最后系统被挤“炸”了, 也就在情理之中了。

    我们想想如何较好的处理这个问题呢?有的开发条件又必须使用Hibernate来处理,当然有的项目比较灵活,可以去寻求其他的方法。


    笔者在这里推荐两种方法:(1):优化Hibernate,程序上采用分段插入及时清除缓存的方法。

    (2):绕过Hibernate API ,直接通过 JDBC API 来做批量插入,这个方法性能上是最 好的,也是最快的。

    对于上述中的方法1,其基本是思路为:优化Hibernate,在配置文件中设置hibernate.jdbc.batch_size参数,来指定每次提 交SQL的数量;程序上采用分段插入及时清除缓存的方法(Session实现了异步write-behind,它允许Hibernate显式地写操作的批 处理),也就是每插入一定量的数据后及时的把它们从内部缓存中清除掉,释放占用的内存。

    设置hibernate.jdbc.batch_size参数,可参考如下配置。


    <hibernate-configuration> <session-factory>……

    <property name=“ hibernate.jdbc.batch_size”>50</property>……


    <session-factory> <hibernate-configuration>

    配置hibernate.jdbc.batch_size参数的原因就是尽量少读数据库,hibernate.jdbc.batch_size参数值越 大,读数据库的次数越少,速度越快。从上面的配置可以看出,Hibernate是等到程序积累到了50个SQL之后再批量提交。

    笔者也在想,hibernate.jdbc.batch_size参数值也可能不是设置得越大越好,从性能角度上讲还有待商榷。这要考虑实际情况,酌情设置,一般情形设置30、50就可以满足需求了。

    程序实现方面,笔者以插入10000条数据为例子,如

    Session session=HibernateUtil.currentSession();

    Transatcion tx=session.beginTransaction();

    for(int i=0;i<10000;i++)

    {

    Student st=new Student();

    st.setName(“feifei”);

    session.save(st);

    if(i%50==0) //以每50个数据作为一个处理单元

    {

    session.flush(); //保持与数据库数据的同步


    session.clear(); //清除内部缓存的全部数据,及时释放出占用的内存

    }

    }

    tx.commit();

    ……


    在一定的数据规模下,这种做法可以把系统内存资源维持在一个相对稳定的范围。

    注意:前面提到二级缓存,笔者在这里有必要再提一下。如果启用了二级缓存,从机制上讲Hibernate为了维护二级缓存,我们在做插入、更新、删除操作 时,Hibernate都会往二级缓存充入相应的数据。性能上就会有很大损失,所以笔者建议在批处理情况下禁用二级缓存。


    对于方法2,采用传统的JDBC的批处理,使用JDBC API来处理。

    些方法请参照java 批处理自执行SQL


    看看上面的代码,是不是总觉得有不妥的地方?对,没发现么!这还是JDBC的传统编程,没有一点Hibernate味道。

    可以对以上的代码修改成下面这样:

    Transaction tx=session.beginTransaction(); //使用Hibernate事务处理

    边界Connection conn=session.connection();

    PrepareStatement stmt=conn.prepareStatement(“insert into T_STUDENT(name) values(?)”);

    for(int j=0;j++;j<200){


    for(int i=0;i++;j<50)

    {

    stmt.setString(1,“feifei”);


    }

    }

    stmt.executeUpdate();

    tx.commit(); //使用 Hibernate事务处理边界

    ……


    这样改动就很有Hibernate的味道了。笔者经过测试,采用JDBC API来做批量处理,性能上比使用Hibernate API要高将近10倍,性能上JDBC 占优这是无疑的。


    批量更新与删除

    Hibernate2中,对于批量更新操作,Hibernate是将符合要求的数据查出来,然后再做更新操作。批量删除也是这样,先把符合条件的数据查出来,然后再做删除操作。

    这样有两个大缺点:(1):占用大量的内存。

    (2):处理海量数据的时候,执行update/delete语句就是海量了,而且一条update/delete语句只能操作一个对象,这样频繁的操作数据库,性能低下应该是可想而知的了。

    Hibernate3 发布后,对批量更新/删除操作引入了bulk update/delete,其原理就是通过一条HQL语句完成批量更新/删除操作,很类似JDBC的批量更新/删除操作。在性能上,比Hibernate2的批量更新/删除有很大的提升。

    Transaction tx=session.beginSession();

    String HQL=“delete STUDENT”;

    Query query=session.createQuery(HQL);


    int size=query.executeUpdate();

    tx.commit();

    ……

    控制台输出了也就一条删除语句Hibernate:delete from T_STUDENT,语句执行少了,性能上也与使用JDBC相差无几,是一个提升性能很好的方法。当然为了有更好的性能,笔者建议批量更新与删除操作还是 使用JDBC,方法以及基本的知识点与上面的批量插入方法2基本相同,这里就不在冗述。

    笔者这里再提供一个方法,就是从数据库端来考虑提升性能,在Hibernate程序端调用存储过程。存储过程在数据库端运行,速度更快。以批量更新为例,给出参考代码。

    首先在数据库端建立名为batchUpdateStudent存储过程:

    create or replace produre batchUpdateStudent(a in number) as

    begin


    update STUDENT set AGE=AGE+1 where AGE>a;


    end;

    调用代码如下:

    Transaction tx=session.beginSession();


    Connection conn=session.connection();


    String pd=“……{call batchUpdateStudent(?)}”;


    CallableStatement cstmt=conn.PrepareCall(pd);

    cstmt.setInt(1,20); //把年龄这个参数设为20

    tx.commit();

    观察上面的代码,也是绕过Hibernate API,使用 JDBC API来调用存储过程,使用的还是Hibernate的事务边界。存储过程无疑是提高批量处理性能的一个好方法,直接运行与数据库端,某种程度上讲把批处理的压力转接给了数据库。


    三:编后语

    本文探讨了Hibernate的批处理操作,出发点都是在提高性能上考虑了,也只是提供了提升性能的一个小方面。

    不管采取什么样的方法,来提升性能都要根据实际的情况来考虑,为用户提供一个满足需求的而且高效稳定的系统才是重中之中。

分享到:
评论

相关推荐

    C#Hibernate数据库海量读写快速存储

    在IT行业中,数据库管理和高效的读写操作是至关重要的任务,特别是在处理海量数据时。本话题主要探讨了如何利用C#编程语言以及Hibernate ORM框架,在SQL Server数据库上实现快速的存储和检索。以下是对这些关键知识...

    Hibernate Hibernate5 讲义 PDF

    ORM的优势在于提供了一个简单而统一的API,且能够存储海量数据并支持大规模查询。然而,它也有不足之处,例如,开发效率和维护效率相对较低,且开发难度较大,代码量大。持久化对象通常是普通的Java对象(POJO),这...

    spring4+hibernate5+quartz2+hdfs整合

    例如,Spring可以作为整体应用的管理和控制层,使用Hibernate来处理数据库操作,Quartz负责定期执行如数据导入、分析等任务,而HDFS则用于存储海量数据。这样的架构在大数据场景下,如日志分析、实时监控或在线广告...

    hibernate-search-4.1.1.Final-dist.zip

    Hibernate Search是Java世界中Hibernate ORM框架的一个强大扩展,它将全文搜索能力引入到持久化层,使得开发者能够轻松地在数据库中的数据上执行复杂的全文检索。本文将详细探讨Hibernate Search 4.1.1.Final版本的...

    就如何构建海量数据应用的一些分享

    - **简化SQL语句**:避免在查询语句中嵌入复杂的业务逻辑,而是将其分离到应用程序中处理,这样不仅可以提高SQL语句的可读性和维护性,还能增强系统的可扩展性。 - **合理使用索引和分区**:通过建立索引和使用表...

    hibernate-search-5.5.5.Final

    Hibernate Search是Hibernate ORM框架的一个强大扩展,它将全文搜索功能引入到Java应用中,使得开发者能够轻松地实现对数据库中海量数据的高效检索。在这个5.5.5.Final版本中,我们看到一个稳定且成熟的解决方案,...

    hibernate Search总结

    在当今的Web应用中,全文检索功能已经成为不可或缺的一部分,尤其是在海量数据的场景下,高效的检索机制对于提升用户体验至关重要。Hibernate Search就是为此目的而生的,它将强大的全文搜索引擎Lucene与ORM框架...

    hibernate-ogm-4.1.0.Beta5-dist.zip

    1. 大数据处理:对于需要处理海量非结构化数据的应用,如日志分析、推荐系统等,Hibernate OGM能有效简化开发流程。 2. 社交网络:如用户关系图、好友推荐等功能,使用对象图数据库可以更好地表示和处理。 3. 分布式...

    hibernate 学习笔记1

    - **支持海量数据处理**: 对于大量数据的存储、检索和报表生成,持久化是必不可少的。 #### 二、实现对象持久化的方法 - **对象序列化**: - 优点: 实现简单。 - 缺点: 不支持检索、不适用于大量数据存储。 - ...

    基于时态密集度特征的大数据高效迁移策略.pdf

    本文主要探讨了一种基于时态密集度特征的大数据高效迁移策略,旨在解决大数据迁移过程中速率不匹配...通过这种策略,可以更有效地管理海量数据,提升数据库的访问和调度能力,降低数据迁移的风险,确保业务的稳定运行。

    struts2数字版海量分页

    7. **优化**:在处理海量数据时,要注意避免一次性加载所有数据,可以使用懒加载或分批加载策略。此外,还可以通过索引优化、缓存策略等手段提升性能。 总的来说,Struts2数字版海量分页是利用Struts2框架结合...

    基于Apriori算法的数据挖掘在移动医疗系统中的应用.pdf

    本文所提出的基于Apriori算法的数据挖掘方案,主要应用于移动医疗系统,尤其关注于分析医疗行业中的海量数据,以及通过高效的数据采集和分析提升医疗服务的效率。 Apriori算法是一种广泛应用于数据挖掘中的关联规则...

    java项目-电信数据采集系统dms,项目需求文档和编码实现

    2. 性能需求:由于电信数据的海量性,系统需要具备高并发处理能力、快速响应时间和大数据量的存储能力。此外,系统还需要有良好的稳定性,确保在数据高峰期间也能稳定运行。 3. 安全需求:考虑到数据的敏感性,系统...

    大数据简历--模板.docx

    大数据简历中提到的Hadoop工程师是目前IT行业中至关重要的角色,他们负责处理海量数据,构建高效的数据处理平台。 首先,简历中提到的Hadoop工程师需要具备扎实的Hadoop分布式文件系统知识,能够熟练搭建Hadoop集群...

    传智播客 Spring、SpringMVC、Hibernate、MyBatis、Struts、Maven、SVN、大数据讲义

    7. **大数据**:大数据是指在传统数据处理工具难以处理的海量、高增长速度和多样性的信息资源。这些数据通常涉及分布式存储、并行处理、数据挖掘和分析等领域。传智播客的大数据讲义可能涵盖了Hadoop、Spark、Hive等...

    数据挖掘在旅游管理中的应用与实现.pdf

    随着信息技术的进步,数据挖掘技术为旅游业提供了从海量数据中提取有价值信息的手段,从而推动旅游管理的精细化和智能化。 首先,旅游业数据挖掘的研究现状表明,尽管数据挖掘在旅游信息化建设中有广泛的应用潜力,...

    中国财务公司协会行业数据申报与分析系统需求.doc

    为了进一步提升系统的效能,可以考虑引入大数据处理技术,如Hadoop或Spark,以应对海量数据的处理和分析。同时,结合云计算技术,提升系统的可扩展性和弹性,以适应未来可能的增长。此外,增加机器学习算法,实现...

    数据结构 &amp; 算法 &amp; Redis &amp; Kafka &amp; MongoDB &amp;

    5. **MongoDB**:MongoDB是一个基于分布式文件存储的开源NoSQL数据库,适合处理海量数据。它支持JSON格式的文档存储,具有灵活的数据模型和良好的水平扩展性。MongoDB适用于需要快速迭代和处理半结构化数据的应用。 ...

    大学大数据分析平台设计与实现 答辩.pptx

    【大学大数据分析平台设计与实现】的毕业设计项目旨在构建一个高效、实用的大数据分析平台,以应对当前海量数据处理的挑战。此项目不仅涉及到技术应用,还包括了前期调研、目前成果展示以及对未来的展望。 一、前期...

Global site tag (gtag.js) - Google Analytics