- 浏览: 658161 次
- 性别:
- 来自: 深圳
文章分类
- 全部博客 (609)
- java (139)
- 数据库 (107)
- 微信 (23)
- IT生活 (5)
- web前端 (74)
- SSH (11)
- 设计模式 (12)
- 重要资料 (11)
- 其他 (15)
- java技巧 (23)
- 服务器 (9)
- 2D/GUI (3)
- JAVA3D (2)
- ANT (5)
- Apache项目 (19)
- 数据类型 (10)
- 报表 (3)
- Collections (6)
- SQL/JDBC (15)
- 开发类 (6)
- EJB (6)
- Email (6)
- 文件读写 (2)
- 游戏 (0)
- Flex (2)
- Generic (2)
- HIbernate (12)
- I18N (5)
- Java EE (9)
- java ME (4)
- JDK 6 (8)
- JNDI/LDAP (5)
- JSP (7)
- JSTL (2)
- 正则表达式 (2)
- 安全 (2)
- Struts2 (12)
- Spring (4)
- Web服务 (10)
- Xml (1)
- JavaScript (30)
- AJAX (7)
- 验证 (4)
- 上传下载 (1)
- office办公软件 (1)
- Android (2)
- IOS (0)
- Dubbo (3)
- memcached/redis (1)
- 小程序 (1)
- 微信公众号 (0)
最新评论
-
wf_wangfeng:
怎么我用第一种方法不行呢 alert(document.rea ...
当jsp页面完全加载完成后执行一个js函数 -
Lori_Liu:
有帮助,至少可以解决了目前所遇到的问题!谢谢..
当jsp页面完全加载完成后执行一个js函数 -
starbhhc:
String actionMessage = new Stri ...
Java读取txt文件乱码 -
starbhhc:
Sev7en_jun 写道GOOD
客气,互相交流。。
javaeye论坛规则小测验(答案)--star -
Sev7en_jun:
GOOD
javaeye论坛规则小测验(答案)--star
很多人对二级缓存都不太了解,或者是有错误的认识,我一直想写一篇文章介绍一下hibernate的二级缓存的,今天终于忍不住了。
我的经验主要来自hibernate2.1版本,基本原理和3.0、3.1是一样的,请原谅我的顽固不化。
hibernate的session提供了一级缓存,每个session,对同一个id进行两次load,不会发送两条sql给数据库,但是session关闭的时候,一级缓存就失效了。
二级缓存是SessionFactory级别的全局缓存,它底下可以使用不同的缓存类库,比如ehcache、oscache等,需要设置hibernate.cache.provider_class,我们这里用ehcache,在2.1中就是
hibernate.cache.provider_class=net.sf.hibernate.cache.EhCacheProvider
如果使用查询缓存,加上
hibernate.cache.use_query_cache=true
缓存可以简单的看成一个Map,通过key在缓存里面找value。
Class的缓存
对于一条记录,也就是一个PO来说,是根据ID来找的,缓存的key就是ID,value是POJO。无论list,load还是iterate,只要读出一个对象,都会填充缓存。但是list不会使用缓存,而iterate会先取数据库select id出来,然后一个id一个id的load,如果在缓存里面有,就从缓存取,没有的话就去数据库load。假设是读写缓存,需要设置:
<cache usage="read-write"/>
如果你使用的二级缓存实现是ehcache的话,需要配置ehcache.xml
<cache name="com.xxx.pojo.Foo" maxElementsInMemory="500" eternal="false" timeToLiveSeconds="7200" timeToIdleSeconds="3600" overflowToDisk="true" />
其中eternal表示缓存是不是永远不超时,timeToLiveSeconds是缓存中每个元素(这里也就是一个POJO)的超时时间,如果eternal="false",超过指定的时间,这个元素就被移走了。timeToIdleSeconds是发呆时间,是可选的。当往缓存里面put的元素超过500个时,如果overflowToDisk="true",就会把缓存中的部分数据保存在硬盘上的临时文件里面。
每个需要缓存的class都要这样配置。如果你没有配置,hibernate会在启动的时候警告你,然后使用defaultCache的配置,这样多个class会共享一个配置。
当某个ID通过hibernate修改时,hibernate会知道,于是移除缓存。
这样大家可能会想,同样的查询条件,第一次先list,第二次再iterate,就可以使用到缓存了。实际上这是很难的,因为你无法判断什么时候是第一次,而且每次查询的条件通常是不一样的,假如数据库里面有100条记录,id从1到100,第一次list的时候出了前50个id,第二次iterate的时候却查询到30至70号id,那么30-50是从缓存里面取的,51到70是从数据库取的,共发送1+20条sql。所以我一直认为iterate没有什么用,总是会有1+N的问题。
(题外话:有说法说大型查询用list会把整个结果集装入内存,很慢,而iterate只select id比较好,但是大型查询总是要分页查的,谁也不会真的把整个结果集装进来,假如一页20条的话,iterate共需要执行21条语句,list虽然选择若干字段,比iterate第一条select id语句慢一些,但只有一条语句,不装入整个结果集hibernate还会根据数据库方言做优化,比如使用mysql的limit,整体看来应该还是list快。)
如果想要对list或者iterate查询的结果缓存,就要用到查询缓存了
查询缓存
首先需要配置hibernate.cache.use_query_cache=true
如果用ehcache,配置ehcache.xml,注意hibernate3.0以后不是net.sf的包名了
<cache name="net.sf.hibernate.cache.StandardQueryCache"
maxElementsInMemory="50" eternal="false" timeToIdleSeconds="3600"
timeToLiveSeconds="7200" overflowToDisk="true"/>
<cache name="net.sf.hibernate.cache.UpdateTimestampsCache"
maxElementsInMemory="5000" eternal="true" overflowToDisk="true"/>
然后
query.setCacheable(true);//激活查询缓存
query.setCacheRegion("myCacheRegion");//指定要使用的cacheRegion,可选
第二行指定要使用的cacheRegion是myCacheRegion,即你可以给每个查询缓存做一个单独的配置,使用setCacheRegion来做这个指定,需要在ehcache.xml里面配置它:
<cache name="myCacheRegion" maxElementsInMemory="10" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200" overflowToDisk="true" />
如果省略第二行,不设置cacheRegion的话,那么会使用上面提到的标准查询缓存的配置,也就是net.sf.hibernate.cache.StandardQueryCache
对于查询缓存来说,缓存的key是根据hql生成的sql,再加上参数,分页等信息(可以通过日志输出看到,不过它的输出不是很可读,最好改一下它的代码)。
比如hql:
from Cat c where c.name like ?
生成大致如下的sql:
select * from cat c where c.name like ?
参数是"tiger%",那么查询缓存的key*大约*是这样的字符串(我是凭记忆写的,并不精确,不过看了也该明白了):
select * from cat c where c.name like ? , parameter:tiger%
这样,保证了同样的查询、同样的参数等条件下具有一样的key。
现在说说缓存的value,如果是list方式的话,value在这里并不是整个结果集,而是查询出来的这一串ID。也就是说,不管是list方法还是iterate方法,第一次查询的时候,它们的查询方式很它们平时的方式是一样的,list执行一条sql,iterate执行1+N条,多出来的行为是它们填充了缓存。但是到同样条件第二次查询的时候,就都和iterate的行为一样了,根据缓存的key去缓存里面查到了value,value是一串id,然后在到class的缓存里面去一个一个的load出来。这样做是为了节约内存。
可以看出来,查询缓存需要打开相关类的class缓存。list和iterate方法第一次执行的时候,都是既填充查询缓存又填充class缓存的。
这里还有一个很容易被忽视的重要问题,即打开查询缓存以后,即使是list方法也可能遇到1+N的问题!相同条件第一次list的时候,因为查询缓存中找不到,不管class缓存是否存在数据,总是发送一条sql语句到数据库获取全部数据,然后填充查询缓存和class缓存。但是第二次执行的时候,问题就来了,如果你的class缓存的超时时间比较短,现在class缓存都超时了,但是查询缓存还在,那么list方法在获取id串以后,将会一个一个去数据库load!因此,class缓存的超时时间一定不能短于查询缓存设置的超时时间!如果还设置了发呆时间的话,保证class缓存的发呆时间也大于查询的缓存的生存时间。这里还有其他情况,比如class缓存被程序强制evict了,这种情况就请自己注意了。
另外,如果hql查询包含select字句,那么查询缓存里面的value就是整个结果集了。
当hibernate更新数据库的时候,它怎么知道更新哪些查询缓存呢?
hibernate在一个地方维护每个表的最后更新时间,其实也就是放在上面net.sf.hibernate.cache.UpdateTimestampsCache所指定的缓存配置里面。
当通过hibernate更新的时候,hibernate会知道这次更新影响了哪些表。然后它更新这些表的最后更新时间。每个缓存都有一个生成时间和这个缓存所查询的表,当hibernate查询一个缓存是否存在的时候,如果缓存存在,它还要取出缓存的生成时间和这个缓存所查询的表,然后去查找这些表的最后更新时间,如果有一个表在生成时间后更新过了,那么这个缓存是无效的。
可以看出,只要更新过一个表,那么凡是涉及到这个表的查询缓存就失效了,因此查询缓存的命中率可能会比较低。
Collection缓存
需要在hbm的collection里面设置
<cache usage="read-write"/>
假如class是Cat,collection叫children,那么ehcache里面配置
<cache name="com.xxx.pojo.Cat.children"
maxElementsInMemory="20" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200"
overflowToDisk="true" />
Collection的缓存和前面查询缓存的list一样,也是只保持一串id,但它不会因为这个表更新过就失效,一个collection缓存仅在这个collection里面的元素有增删时才失效。
这样有一个问题,如果你的collection是根据某个字段排序的,当其中一个元素更新了该字段时,导致顺序改变时,collection缓存里面的顺序没有做更新。
缓存策略
只读缓存(read-only):没有什么好说的
读/写缓存(read-write):程序可能要的更新数据
不严格的读/写缓存(nonstrict-read-write):需要更新数据,但是两个事务更新同一条记录的可能性很小,性能比读写缓存好
事务缓存(transactional):缓存支持事务,发生异常的时候,缓存也能够回滚,只支持jta环境,这个我没有怎么研究过
读写缓存和不严格读写缓存在实现上的区别在于,读写缓存更新缓存的时候会把缓存里面的数据换成一个锁,其他事务如果去取相应的缓存数据,发现被锁住了,然后就直接取数据库查询。
在hibernate2.1的ehcache实现中,如果锁住部分缓存的事务发生了异常,那么缓存会一直被锁住,直到60秒后超时。
不严格读写缓存不锁定缓存中的数据。
使用二级缓存的前置条件
你的hibernate程序对数据库有独占的写访问权,其他的进程更新了数据库,hibernate是不可能知道的。你操作数据库必需直接通过hibernate,如果你调用存储过程,或者自己使用jdbc更新数据库,hibernate也是不知道的。hibernate3.0的大批量更新和删除是不更新二级缓存的,但是据说3.1已经解决了这个问题。
这个限制相当的棘手,有时候hibernate做批量更新、删除很慢,但是你却不能自己写jdbc来优化,很郁闷吧。
SessionFactory也提供了移除缓存的方法,你一定要自己写一些JDBC的话,可以调用这些方法移除缓存,这些方法是:
void evict(Class persistentClass)
Evict all entries from the second-level cache.
void evict(Class persistentClass, Serializable id)
Evict an entry from the second-level cache.
void evictCollection(String roleName)
Evict all entries from the second-level cache.
void evictCollection(String roleName, Serializable id)
Evict an entry from the second-level cache.
void evictQueries()
Evict any query result sets cached in the default query cache region.
void evictQueries(String cacheRegion)
Evict any query result sets cached in the named query cache region.
不过我不建议这样做,因为这样很难维护。比如你现在用JDBC批量更新了某个表,有3个查询缓存会用到这个表,用evictQueries(String cacheRegion)移除了3个查询缓存,然后用evict(Class persistentClass)移除了class缓存,看上去好像完整了。不过哪天你添加了一个相关查询缓存,可能会忘记更新这里的移除代码。如果你的jdbc代码到处都是,在你添加一个查询缓存的时候,还知道其他什么地方也要做相应的改动吗?
----------------------------------------------------
总结:
不要想当然的以为缓存一定能提高性能,仅仅在你能够驾驭它并且条件合适的情况下才是这样的。hibernate的二级缓存限制还是比较多的,不方便用jdbc可能会大大的降低更新性能。在不了解原理的情况下乱用,可能会有1+N的问题。不当的使用还可能导致读出脏数据。
如果受不了hibernate的诸多限制,那么还是自己在应用程序的层面上做缓存吧。
在越高的层面上做缓存,效果就会越好。就好像尽管磁盘有缓存,数据库还是要实现自己的缓存,尽管数据库有缓存,咱们的应用程序还是要做缓存。因为底层的缓存它并不知道高层要用这些数据干什么,只能做的比较通用,而高层可以有针对性的实现缓存,所以在更高的级别上做缓存,效果也要好些吧。
好累……
我的经验主要来自hibernate2.1版本,基本原理和3.0、3.1是一样的,请原谅我的顽固不化。
hibernate的session提供了一级缓存,每个session,对同一个id进行两次load,不会发送两条sql给数据库,但是session关闭的时候,一级缓存就失效了。
二级缓存是SessionFactory级别的全局缓存,它底下可以使用不同的缓存类库,比如ehcache、oscache等,需要设置hibernate.cache.provider_class,我们这里用ehcache,在2.1中就是
hibernate.cache.provider_class=net.sf.hibernate.cache.EhCacheProvider
如果使用查询缓存,加上
hibernate.cache.use_query_cache=true
缓存可以简单的看成一个Map,通过key在缓存里面找value。
Class的缓存
对于一条记录,也就是一个PO来说,是根据ID来找的,缓存的key就是ID,value是POJO。无论list,load还是iterate,只要读出一个对象,都会填充缓存。但是list不会使用缓存,而iterate会先取数据库select id出来,然后一个id一个id的load,如果在缓存里面有,就从缓存取,没有的话就去数据库load。假设是读写缓存,需要设置:
<cache usage="read-write"/>
如果你使用的二级缓存实现是ehcache的话,需要配置ehcache.xml
<cache name="com.xxx.pojo.Foo" maxElementsInMemory="500" eternal="false" timeToLiveSeconds="7200" timeToIdleSeconds="3600" overflowToDisk="true" />
其中eternal表示缓存是不是永远不超时,timeToLiveSeconds是缓存中每个元素(这里也就是一个POJO)的超时时间,如果eternal="false",超过指定的时间,这个元素就被移走了。timeToIdleSeconds是发呆时间,是可选的。当往缓存里面put的元素超过500个时,如果overflowToDisk="true",就会把缓存中的部分数据保存在硬盘上的临时文件里面。
每个需要缓存的class都要这样配置。如果你没有配置,hibernate会在启动的时候警告你,然后使用defaultCache的配置,这样多个class会共享一个配置。
当某个ID通过hibernate修改时,hibernate会知道,于是移除缓存。
这样大家可能会想,同样的查询条件,第一次先list,第二次再iterate,就可以使用到缓存了。实际上这是很难的,因为你无法判断什么时候是第一次,而且每次查询的条件通常是不一样的,假如数据库里面有100条记录,id从1到100,第一次list的时候出了前50个id,第二次iterate的时候却查询到30至70号id,那么30-50是从缓存里面取的,51到70是从数据库取的,共发送1+20条sql。所以我一直认为iterate没有什么用,总是会有1+N的问题。
(题外话:有说法说大型查询用list会把整个结果集装入内存,很慢,而iterate只select id比较好,但是大型查询总是要分页查的,谁也不会真的把整个结果集装进来,假如一页20条的话,iterate共需要执行21条语句,list虽然选择若干字段,比iterate第一条select id语句慢一些,但只有一条语句,不装入整个结果集hibernate还会根据数据库方言做优化,比如使用mysql的limit,整体看来应该还是list快。)
如果想要对list或者iterate查询的结果缓存,就要用到查询缓存了
查询缓存
首先需要配置hibernate.cache.use_query_cache=true
如果用ehcache,配置ehcache.xml,注意hibernate3.0以后不是net.sf的包名了
<cache name="net.sf.hibernate.cache.StandardQueryCache"
maxElementsInMemory="50" eternal="false" timeToIdleSeconds="3600"
timeToLiveSeconds="7200" overflowToDisk="true"/>
<cache name="net.sf.hibernate.cache.UpdateTimestampsCache"
maxElementsInMemory="5000" eternal="true" overflowToDisk="true"/>
然后
query.setCacheable(true);//激活查询缓存
query.setCacheRegion("myCacheRegion");//指定要使用的cacheRegion,可选
第二行指定要使用的cacheRegion是myCacheRegion,即你可以给每个查询缓存做一个单独的配置,使用setCacheRegion来做这个指定,需要在ehcache.xml里面配置它:
<cache name="myCacheRegion" maxElementsInMemory="10" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200" overflowToDisk="true" />
如果省略第二行,不设置cacheRegion的话,那么会使用上面提到的标准查询缓存的配置,也就是net.sf.hibernate.cache.StandardQueryCache
对于查询缓存来说,缓存的key是根据hql生成的sql,再加上参数,分页等信息(可以通过日志输出看到,不过它的输出不是很可读,最好改一下它的代码)。
比如hql:
from Cat c where c.name like ?
生成大致如下的sql:
select * from cat c where c.name like ?
参数是"tiger%",那么查询缓存的key*大约*是这样的字符串(我是凭记忆写的,并不精确,不过看了也该明白了):
select * from cat c where c.name like ? , parameter:tiger%
这样,保证了同样的查询、同样的参数等条件下具有一样的key。
现在说说缓存的value,如果是list方式的话,value在这里并不是整个结果集,而是查询出来的这一串ID。也就是说,不管是list方法还是iterate方法,第一次查询的时候,它们的查询方式很它们平时的方式是一样的,list执行一条sql,iterate执行1+N条,多出来的行为是它们填充了缓存。但是到同样条件第二次查询的时候,就都和iterate的行为一样了,根据缓存的key去缓存里面查到了value,value是一串id,然后在到class的缓存里面去一个一个的load出来。这样做是为了节约内存。
可以看出来,查询缓存需要打开相关类的class缓存。list和iterate方法第一次执行的时候,都是既填充查询缓存又填充class缓存的。
这里还有一个很容易被忽视的重要问题,即打开查询缓存以后,即使是list方法也可能遇到1+N的问题!相同条件第一次list的时候,因为查询缓存中找不到,不管class缓存是否存在数据,总是发送一条sql语句到数据库获取全部数据,然后填充查询缓存和class缓存。但是第二次执行的时候,问题就来了,如果你的class缓存的超时时间比较短,现在class缓存都超时了,但是查询缓存还在,那么list方法在获取id串以后,将会一个一个去数据库load!因此,class缓存的超时时间一定不能短于查询缓存设置的超时时间!如果还设置了发呆时间的话,保证class缓存的发呆时间也大于查询的缓存的生存时间。这里还有其他情况,比如class缓存被程序强制evict了,这种情况就请自己注意了。
另外,如果hql查询包含select字句,那么查询缓存里面的value就是整个结果集了。
当hibernate更新数据库的时候,它怎么知道更新哪些查询缓存呢?
hibernate在一个地方维护每个表的最后更新时间,其实也就是放在上面net.sf.hibernate.cache.UpdateTimestampsCache所指定的缓存配置里面。
当通过hibernate更新的时候,hibernate会知道这次更新影响了哪些表。然后它更新这些表的最后更新时间。每个缓存都有一个生成时间和这个缓存所查询的表,当hibernate查询一个缓存是否存在的时候,如果缓存存在,它还要取出缓存的生成时间和这个缓存所查询的表,然后去查找这些表的最后更新时间,如果有一个表在生成时间后更新过了,那么这个缓存是无效的。
可以看出,只要更新过一个表,那么凡是涉及到这个表的查询缓存就失效了,因此查询缓存的命中率可能会比较低。
Collection缓存
需要在hbm的collection里面设置
<cache usage="read-write"/>
假如class是Cat,collection叫children,那么ehcache里面配置
<cache name="com.xxx.pojo.Cat.children"
maxElementsInMemory="20" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200"
overflowToDisk="true" />
Collection的缓存和前面查询缓存的list一样,也是只保持一串id,但它不会因为这个表更新过就失效,一个collection缓存仅在这个collection里面的元素有增删时才失效。
这样有一个问题,如果你的collection是根据某个字段排序的,当其中一个元素更新了该字段时,导致顺序改变时,collection缓存里面的顺序没有做更新。
缓存策略
只读缓存(read-only):没有什么好说的
读/写缓存(read-write):程序可能要的更新数据
不严格的读/写缓存(nonstrict-read-write):需要更新数据,但是两个事务更新同一条记录的可能性很小,性能比读写缓存好
事务缓存(transactional):缓存支持事务,发生异常的时候,缓存也能够回滚,只支持jta环境,这个我没有怎么研究过
读写缓存和不严格读写缓存在实现上的区别在于,读写缓存更新缓存的时候会把缓存里面的数据换成一个锁,其他事务如果去取相应的缓存数据,发现被锁住了,然后就直接取数据库查询。
在hibernate2.1的ehcache实现中,如果锁住部分缓存的事务发生了异常,那么缓存会一直被锁住,直到60秒后超时。
不严格读写缓存不锁定缓存中的数据。
使用二级缓存的前置条件
你的hibernate程序对数据库有独占的写访问权,其他的进程更新了数据库,hibernate是不可能知道的。你操作数据库必需直接通过hibernate,如果你调用存储过程,或者自己使用jdbc更新数据库,hibernate也是不知道的。hibernate3.0的大批量更新和删除是不更新二级缓存的,但是据说3.1已经解决了这个问题。
这个限制相当的棘手,有时候hibernate做批量更新、删除很慢,但是你却不能自己写jdbc来优化,很郁闷吧。
SessionFactory也提供了移除缓存的方法,你一定要自己写一些JDBC的话,可以调用这些方法移除缓存,这些方法是:
void evict(Class persistentClass)
Evict all entries from the second-level cache.
void evict(Class persistentClass, Serializable id)
Evict an entry from the second-level cache.
void evictCollection(String roleName)
Evict all entries from the second-level cache.
void evictCollection(String roleName, Serializable id)
Evict an entry from the second-level cache.
void evictQueries()
Evict any query result sets cached in the default query cache region.
void evictQueries(String cacheRegion)
Evict any query result sets cached in the named query cache region.
不过我不建议这样做,因为这样很难维护。比如你现在用JDBC批量更新了某个表,有3个查询缓存会用到这个表,用evictQueries(String cacheRegion)移除了3个查询缓存,然后用evict(Class persistentClass)移除了class缓存,看上去好像完整了。不过哪天你添加了一个相关查询缓存,可能会忘记更新这里的移除代码。如果你的jdbc代码到处都是,在你添加一个查询缓存的时候,还知道其他什么地方也要做相应的改动吗?
----------------------------------------------------
总结:
不要想当然的以为缓存一定能提高性能,仅仅在你能够驾驭它并且条件合适的情况下才是这样的。hibernate的二级缓存限制还是比较多的,不方便用jdbc可能会大大的降低更新性能。在不了解原理的情况下乱用,可能会有1+N的问题。不当的使用还可能导致读出脏数据。
如果受不了hibernate的诸多限制,那么还是自己在应用程序的层面上做缓存吧。
在越高的层面上做缓存,效果就会越好。就好像尽管磁盘有缓存,数据库还是要实现自己的缓存,尽管数据库有缓存,咱们的应用程序还是要做缓存。因为底层的缓存它并不知道高层要用这些数据干什么,只能做的比较通用,而高层可以有针对性的实现缓存,所以在更高的级别上做缓存,效果也要好些吧。
好累……
评论
4 楼
yuzexu
2011-01-15
最近也在研究hibernate的性能调优 现在把我遇到的问题写在这里 一是给其他人一下提示 二是希望有经验的人给点帮助或建议
Dept 部门表 大约有 30条数据
案例一
查询缓存开启 二级缓存开启
//从数据查
session.createQuery("from Dept as p1").setCacheable(true).list();
//缓存中已经存在 ,从缓存中获取
session.createQuery("from Dept as p1").setCacheable(true).list();
第2次查询耗时:500-700ms
感觉很纳闷 这么点数据竟然这么耗时
后来打开hibernate的日志,发现其实hibernate从查询缓存获取结果集只用了10-20ms
而大量的时间都消耗在了 hibernate从二级缓存中根据部门标识获取对象上
10:36:02,843 DEBUG StandardQueryCache:102 - checking cached query results in region: com.test.bean.Dept
10:36:02,859 DEBUG StandardQueryCache:156 - Checking query spaces for up-to-dateness: [dept]
10:36:02,890 DEBUG StandardQueryCache:117 - returning cached query results
10:36:02,890 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#1cea044ed2ab41758fe0f096593a4ecb
10:36:02,906 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#1cea044ed2ab41758fe0f096593a4ecb
10:36:02,906 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#fa79d2df52ad42d18ffac377c37e843b
10:36:02,937 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#fa79d2df52ad42d18ffac377c37e843b
10:36:02,937 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c2bb839b5dd446e18c1a3fd0d8656730
10:36:02,968 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c2bb839b5dd446e18c1a3fd0d8656730
10:36:02,968 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#47b5805bfa2f446f8a917fd56e23a140
10:36:02,984 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#47b5805bfa2f446f8a917fd56e23a140
10:36:02,984 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#f35cd040b4b7415092372d7ad1f6c67d
10:36:03,015 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#f35cd040b4b7415092372d7ad1f6c67d
10:36:03,015 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c8fee721cadf475a96569ea81296d83a
10:36:03,046 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c8fee721cadf475a96569ea81296d83a
10:36:03,046 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#784a51c7d9da47aebe89408540b2702e
10:36:03,062 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#784a51c7d9da47aebe89408540b2702e
10:36:03,062 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#79335a78184c402da0de1d5792bc28b2
10:36:03,109 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#79335a78184c402da0de1d5792bc28b2
10:36:03,109 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#43f53761996b4caaaed3b61b6012744b
10:36:03,140 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#43f53761996b4caaaed3b61b6012744b
10:36:03,140 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#b09a2f4fffbf428c97221f59becab465
10:36:03,156 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#b09a2f4fffbf428c97221f59becab465
10:36:03,156 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#fad58173e45149d09e298779bef1c51a
10:36:03,171 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#fad58173e45149d09e298779bef1c51a
10:36:03,171 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c110ef5230d44f7abc0f08fb5a45f2ee
10:36:03,203 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c110ef5230d44f7abc0f08fb5a45f2ee
10:36:03,203 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#99e72d2255ce44968418220dcaf0b337
10:36:03,218 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#99e72d2255ce44968418220dcaf0b337
10:36:03,218 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#018c97c83a8d42779111e343ad67eefe
10:36:03,234 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#018c97c83a8d42779111e343ad67eefe
10:36:03,234 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#111041e2fb06424ebb79e3a900352362
10:36:03,265 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#111041e2fb06424ebb79e3a900352362
10:36:03,265 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c65ccf55defe40519ae4657e0d9fd9ac
10:36:03,281 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c65ccf55defe40519ae4657e0d9fd9ac
10:36:03,281 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#2400a42c0da5438b97f11910ca81e38f
10:36:03,312 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#2400a42c0da5438b97f11910ca81e38f
10:36:03,312 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#e50882f50c954a6e83f59c54f6f1cf0b
10:36:03,328 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#e50882f50c954a6e83f59c54f6f1cf0b
10:36:03,328 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#474a28c81cab49509ea94304b65beddd
10:36:03,359 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#474a28c81cab49509ea94304b65beddd
10:36:03,359 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#198ccaf3fc9d44bfbf778ad031e0f84d
10:36:03,375 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#198ccaf3fc9d44bfbf778ad031e0f84d
10:36:03,375 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#152306a7b9a1466bab238692a8aefda9
10:36:03,390 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#152306a7b9a1466bab238692a8aefda9
10:36:03,390 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#cc60de94ea5246c8b633bd653835a590
10:36:03,421 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#cc60de94ea5246c8b633bd653835a590
10:36:03,421 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#adf49757f8a24b1b8d81d7f273d6acf1
10:36:03,437 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#adf49757f8a24b1b8d81d7f273d6acf1
10:36:03,437 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#29e86416f1694a37b8cdec9baf06f503
10:36:03,468 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#29e86416f1694a37b8cdec9baf06f503
10:36:03,468 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#af44c44fb9d7462494ccf0cd9b46052d
10:36:03,484 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#af44c44fb9d7462494ccf0cd9b46052d
10:36:03,484 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#96f6b4d58fc14ee197bf045bc065a50f
10:36:03,515 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#96f6b4d58fc14ee197bf045bc065a50f
10:36:03,515 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#682246cfdb5e4e7e99e6fc820c9248fb
10:36:03,546 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#682246cfdb5e4e7e99e6fc820c9248fb
10:36:03,546 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#09462cb9e5b84383846e7cb5d831990d
10:36:03,562 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#09462cb9e5b84383846e7cb5d831990d
案例二
关闭二级缓存 开启查询缓存
这样更糟糕 hibernate 会发出 n+1条sql到数据库里查
希望高手给点建议
Dept 部门表 大约有 30条数据
案例一
查询缓存开启 二级缓存开启
//从数据查
session.createQuery("from Dept as p1").setCacheable(true).list();
//缓存中已经存在 ,从缓存中获取
session.createQuery("from Dept as p1").setCacheable(true).list();
第2次查询耗时:500-700ms
感觉很纳闷 这么点数据竟然这么耗时
后来打开hibernate的日志,发现其实hibernate从查询缓存获取结果集只用了10-20ms
而大量的时间都消耗在了 hibernate从二级缓存中根据部门标识获取对象上
10:36:02,843 DEBUG StandardQueryCache:102 - checking cached query results in region: com.test.bean.Dept
10:36:02,859 DEBUG StandardQueryCache:156 - Checking query spaces for up-to-dateness: [dept]
10:36:02,890 DEBUG StandardQueryCache:117 - returning cached query results
10:36:02,890 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#1cea044ed2ab41758fe0f096593a4ecb
10:36:02,906 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#1cea044ed2ab41758fe0f096593a4ecb
10:36:02,906 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#fa79d2df52ad42d18ffac377c37e843b
10:36:02,937 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#fa79d2df52ad42d18ffac377c37e843b
10:36:02,937 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c2bb839b5dd446e18c1a3fd0d8656730
10:36:02,968 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c2bb839b5dd446e18c1a3fd0d8656730
10:36:02,968 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#47b5805bfa2f446f8a917fd56e23a140
10:36:02,984 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#47b5805bfa2f446f8a917fd56e23a140
10:36:02,984 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#f35cd040b4b7415092372d7ad1f6c67d
10:36:03,015 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#f35cd040b4b7415092372d7ad1f6c67d
10:36:03,015 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c8fee721cadf475a96569ea81296d83a
10:36:03,046 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c8fee721cadf475a96569ea81296d83a
10:36:03,046 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#784a51c7d9da47aebe89408540b2702e
10:36:03,062 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#784a51c7d9da47aebe89408540b2702e
10:36:03,062 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#79335a78184c402da0de1d5792bc28b2
10:36:03,109 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#79335a78184c402da0de1d5792bc28b2
10:36:03,109 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#43f53761996b4caaaed3b61b6012744b
10:36:03,140 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#43f53761996b4caaaed3b61b6012744b
10:36:03,140 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#b09a2f4fffbf428c97221f59becab465
10:36:03,156 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#b09a2f4fffbf428c97221f59becab465
10:36:03,156 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#fad58173e45149d09e298779bef1c51a
10:36:03,171 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#fad58173e45149d09e298779bef1c51a
10:36:03,171 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c110ef5230d44f7abc0f08fb5a45f2ee
10:36:03,203 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c110ef5230d44f7abc0f08fb5a45f2ee
10:36:03,203 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#99e72d2255ce44968418220dcaf0b337
10:36:03,218 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#99e72d2255ce44968418220dcaf0b337
10:36:03,218 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#018c97c83a8d42779111e343ad67eefe
10:36:03,234 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#018c97c83a8d42779111e343ad67eefe
10:36:03,234 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#111041e2fb06424ebb79e3a900352362
10:36:03,265 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#111041e2fb06424ebb79e3a900352362
10:36:03,265 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#c65ccf55defe40519ae4657e0d9fd9ac
10:36:03,281 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#c65ccf55defe40519ae4657e0d9fd9ac
10:36:03,281 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#2400a42c0da5438b97f11910ca81e38f
10:36:03,312 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#2400a42c0da5438b97f11910ca81e38f
10:36:03,312 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#e50882f50c954a6e83f59c54f6f1cf0b
10:36:03,328 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#e50882f50c954a6e83f59c54f6f1cf0b
10:36:03,328 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#474a28c81cab49509ea94304b65beddd
10:36:03,359 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#474a28c81cab49509ea94304b65beddd
10:36:03,359 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#198ccaf3fc9d44bfbf778ad031e0f84d
10:36:03,375 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#198ccaf3fc9d44bfbf778ad031e0f84d
10:36:03,375 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#152306a7b9a1466bab238692a8aefda9
10:36:03,390 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#152306a7b9a1466bab238692a8aefda9
10:36:03,390 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#cc60de94ea5246c8b633bd653835a590
10:36:03,421 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#cc60de94ea5246c8b633bd653835a590
10:36:03,421 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#adf49757f8a24b1b8d81d7f273d6acf1
10:36:03,437 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#adf49757f8a24b1b8d81d7f273d6acf1
10:36:03,437 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#29e86416f1694a37b8cdec9baf06f503
10:36:03,468 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#29e86416f1694a37b8cdec9baf06f503
10:36:03,468 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#af44c44fb9d7462494ccf0cd9b46052d
10:36:03,484 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#af44c44fb9d7462494ccf0cd9b46052d
10:36:03,484 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#96f6b4d58fc14ee197bf045bc065a50f
10:36:03,515 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#96f6b4d58fc14ee197bf045bc065a50f
10:36:03,515 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#682246cfdb5e4e7e99e6fc820c9248fb
10:36:03,546 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#682246cfdb5e4e7e99e6fc820c9248fb
10:36:03,546 DEBUG ReadWriteCache:75 - Cache lookup: com.test.bean.Dept#09462cb9e5b84383846e7cb5d831990d
10:36:03,562 DEBUG ReadWriteCache:85 - Cache hit: com.test.bean.Dept#09462cb9e5b84383846e7cb5d831990d
案例二
关闭二级缓存 开启查询缓存
这样更糟糕 hibernate 会发出 n+1条sql到数据库里查
希望高手给点建议
3 楼
kyfxbl
2010-12-15
看到第2行就没继续看了。我没有原谅你的顽固不化,但还是顶一个吧
2 楼
whitenegro
2010-12-14
这个不应该在这个版面吧, 而且....也是好老的帖子了, 内容是很硬的
1 楼
suixinsuoyu12519
2010-12-14
写的真好,一直想了解下这个知识点的
发表评论
-
基于注解的SpringMVC简单介绍
2015-04-03 11:58 596SpringMVC是一个基于DispatcherServle ... -
Hibernate与 MyBatis的比较
2015-03-20 00:34 640mybatis是半自动的,hibernate是全自动的,就是 ... -
spring学习,理解控制反转和spring在项目中可以带来的好处
2014-08-18 15:32 2113spring三种实例化Bean的 ... -
springMVC详细介绍(备查)
2014-08-18 15:19 797myeclipse 构建springMvc mav ... -
struts2文件上传的采用的三种方式解析
2012-02-06 14:00 845文件上传几乎是每个项目实现的一个必须的模块。 上传就是将 ... -
struts2防页面刷新重复提交
2012-01-12 14:41 897struts2防页面刷新重复提 ... -
struts2异常处理方法
2011-12-29 10:07 1873因为在Action的execute方法 ... -
struts2中文乱码的问题
2011-06-16 14:05 818struts2中存在中文乱码的问题,这是大家都知道的,经过这次 ... -
Struts2中action获取request、response、session的方式
2011-01-21 16:58 1430struts2的request、response、sessio ... -
Struts、Hibernate、Spring经典面试题
2010-07-19 16:10 1253Hibernate工作原理及为什 ...
相关推荐
Hibernate二级缓存是一种提高应用程序性能的技术,它将数据存储在SessionFactory级别的缓存中,使得数据可以在不同的Session之间共享。这与一级缓存(Session级别)不同,一级缓存仅存在于单个Session生命周期内,当...
Hibernate 二级缓存是针对SessionFactory级别的全局缓存,与一级缓存(Session级别)不同,一级缓存只在单个Session生命周期内有效。二级缓存则允许不同Session之间共享数据,提高了数据访问效率,减少了对数据库的...
Hibernate 二级缓存
在这个"hibernate二级缓存实例"中,我们将深入探讨二级缓存的原理、配置以及在实际项目中的应用。 首先,我们需要了解一级缓存和二级缓存的区别。一级缓存是Session级别的,每个Session都有自己的一级缓存,用于...
**hibernate二级缓存详解** Hibernate作为Java领域中广泛使用的对象关系映射(ORM)框架,极大地简化了数据库操作。然而,在处理大量数据时,性能优化显得尤为重要,这就是二级缓存的作用。本文将深入探讨Hibernate...
**Hibernate 二级缓存总结整理** 在Java的持久化框架中,Hibernate是一个广泛使用的ORM(对象关系映射)工具,它极大地简化了数据库操作。在处理大数据量或高并发的场景下,为了提高性能和减少数据库负载,...
Hibernate二级缓存是Java开发中使用Hibernate框架进行数据持久化时优化性能的一种重要技术。它在一级缓存(Session级别的缓存)的基础上,提供了一个全局的、跨会话的数据存储层,可以显著减少对数据库的访问,从而...
二级缓存是 Hibernate 缓存策略的一部分,它在应用程序的多个会话之间共享数据,进一步优化了数据库访问效率。 二级缓存分为以下关键知识点: 1. **一级缓存与二级缓存的区别**: - 一级缓存:每个 Hibernate ...
本篇文章将深入探讨Hibernate二级缓存的概念、工作原理以及如何在实际项目中设置和使用。 **一、二级缓存概念** 一级缓存是每个Hibernate Session内部的一个内存区域,用于存储Session期间的操作对象。当Session...
本篇将详细介绍Hibernate二级缓存的概念、作用以及所需jar包的作用。 一、Hibernate二级缓存概念 Hibernate的一级缓存是指Session级别的缓存,每个Session内部都有一个一级缓存,用于存储实体对象,当Session关闭时...
【标题】:“Hibernate二级缓存(Ehcache)” 【正文】: Hibernate是一个流行的Java对象关系映射(ORM)框架,它允许开发者用面向对象的方式来处理数据库操作。然而,随着应用规模的扩大,性能优化变得至关重要,...
本篇文章将深入探讨Hibernate的二级缓存机制,以及如何进行一级缓存与二级缓存的同步,同时还会介绍二级缓存的配置文件设置。 一级缓存是Hibernate默认提供的缓存,每个SessionFactory实例都有一个一级缓存。当对象...