【hibernate框架】缓存机制之二级缓存

简介:
二级缓存是sessionFactory级别的缓存,可以跨越session存在。

hibernate文档里关于二级缓存的说明:
二级缓存(The Second Level Cache)
hibernate支持多种多样的二级缓存的实现,但hibernate本身并没有写二级缓存的实现(有一个是用来内部测试的,不要用于产品开发),而是由其他的厂商来提供。

表 21.1. 缓存策略提供商(Cache Providers)
org.hibernate.cache.HashtableCacheProvider(内存)
org.hibernate.cache.EhCacheProvider(内存,硬盘)
org.hibernate.cache.OSCacheProvider(内存,硬盘)
org.hibernate.cache.SwarmCacheProvider(能用于集群环境)
org.hibernate.cache.TreeCacheProvider(能用于集群环境)
org.hibernate.cache.jbc.JBossCacheRegionFactory(能用于集群环境)

下面我们用EhCacheProvider做实验。
这是我们以前在hibernate.cfg.xml中关于缓存的配置:
<property name="cache.provider_class">
org.hibernate.cache.NoCacheProvider
</property>

如果想要使用其他厂商提供的缓存,就要在上面做好配置:
这里我们使用EhCacheProvider这个二级缓存
<property name="cache.use_second_level_cache">
true
</property>
<property name="cache.provider_class">
org.hibernate.cache.EhCacheProvider
</property> 

EhCacheProvider自己也有一个配置文件:(这个配置文件在hibernate包下的project/etc/ehcache.xml)

<ehcache>
    <diskStore path="java.io.tmpdir"/>
    
    <!--默认cache的配置-->
    <defaultCache
        maxElementsInMemory="10000"<!--在缓存里最多多少个对象-->
        eternal="false"<!--是否从来不把内存的对象清除-->
        timeToIdleSeconds="12"<!--12秒没人来查这个缓存就将这个对象清除-->
        timeToLiveSeconds="120"<!--某个对象呆了120秒缓存就将这个对象清除-->
        overflowToDisk="true"<!--溢出的时候是否放到硬盘-->
        />

    <cache name="sampleCache1"<!--缓存名字,可以想用哪一个缓存就用哪一个-->
        maxElementsInMemory="10000"
        eternal="false"
        timeToIdleSeconds="300"
        timeToLiveSeconds="600"
        overflowToDisk="true"
        />

    <cache name="sampleCache2"
        maxElementsInMemory="1000"
        eternal="true"
        timeToIdleSeconds="0"
        timeToLiveSeconds="0"
        overflowToDisk="false"
        /> 

</ehcache>

讲二级缓存是为了应付面试的,工作中,除非必要,一般是不用二级缓存的。
有必要用二级缓存的场景:
1.经常被访问的
2.改动不大,不会经常被改动
3.数量有限

二级缓存的使用,利用注解(不是jpa的注解,是hibernate的)
@Cache(
    (1)CacheConcurrencyStrategy usage();
    (2)String region() default "";
    (3)String include() default "all";
)
例如:
@Cache(usage = CacheConcurrencyStrategy.NONSTRICT_READ_WRITE)
NONSTRICT_READ_WRITE说的是非严格读写
READ_ONLY是只读(在二级缓存里不允许改)
READ_WRITE是既能读又能改

region()是对应的缓存策略名称,不填就默认使用default 

使用的时候别忘了引入ehcache的jar包:ehcache-1.5.0.jar

加入ehcache的配置文件ehcache.xml之后,在category类上加注解:
package com.bjsxt.hibernate;

import javax.persistence.Entity;
import javax.persistence.GeneratedValue;
import javax.persistence.Id;

import org.hibernate.annotations.BatchSize;
import org.hibernate.annotations.Cache;
import org.hibernate.annotations.CacheConcurrencyStrategy;

@Entity
@Cache(usage=CacheConcurrencyStrategy.READ_WRITE)
public class Category {
	private int id;
	private String name;
	@Id
	@GeneratedValue
	public int getId() {
		return id;
	}
	public void setId(int id) {
		this.id = id;
	}
	public String getName() {
		return name;
	}
	public void setName(String name) {
		this.name = name;
	}
}

之后进行测试:
@Test
public void testHuanCun2(){
	Session session = sf.openSession();
	session.beginTransaction();
	Category c=(Category)session.load(Category.class,1);
	System.out.println(c.getName());
	session.getTransaction().commit();
	session.close();
	
	Session session2 = sf.openSession();
	session2.beginTransaction();
	Category c2=(Category)session2.load(Category.class,1);
	System.out.println(c2.getName());
	session2.getTransaction().commit();
	session2.close();
}

测试结果:
Hibernate: 
    select
        category0_.id as id0_0_,
        category0_.name as name0_0_ 
    from
        Category category0_ 
    where
        category0_.id=?
c0
c0

发现第二次去缓存中去取了


转载请注明出处:http://blog.csdn.net/acmman/article/details/44132207

目录
打赏
0
0
0
0
27
分享
相关文章
PyTorch CUDA内存管理优化:深度理解GPU资源分配与缓存机制
本文深入探讨了PyTorch中GPU内存管理的核心机制,特别是CUDA缓存分配器的作用与优化策略。文章分析了常见的“CUDA out of memory”问题及其成因,并通过实际案例(如Llama 1B模型训练)展示了内存分配模式。PyTorch的缓存分配器通过内存池化、延迟释放和碎片化优化等技术,显著提升了内存使用效率,减少了系统调用开销。此外,文章还介绍了高级优化方法,包括混合精度训练、梯度检查点技术及自定义内存分配器配置。这些策略有助于开发者在有限硬件资源下实现更高性能的深度学习模型训练与推理。
65 0
Redis应用—8.相关的缓存框架
本文介绍了Ehcache和Guava Cache两个缓存框架及其使用方法,以及如何自定义缓存。主要内容包括:Ehcache缓存框架、Guava Cache缓存框架、自定义缓存。总结:Ehcache适合用作本地缓存或与Redis结合使用,Guava Cache则提供了更灵活的缓存管理和更高的并发性能。自定义缓存可以根据具体需求选择不同的数据结构和引用类型来实现特定的缓存策略。
115 16
Redis应用—8.相关的缓存框架
【赵渝强老师】Spark RDD的缓存机制
Spark RDD通过`persist`或`cache`方法可将计算结果缓存,但并非立即生效,而是在触发action时才缓存到内存中供重用。`cache`方法实际调用了`persist(StorageLevel.MEMORY_ONLY)`。RDD缓存可能因内存不足被删除,建议结合检查点机制保证容错。示例中,读取大文件并多次调用`count`,使用缓存后执行效率显著提升,最后一次计算仅耗时98ms。
【赵渝强老师】Spark RDD的缓存机制
SCOPE:面向大语言模型长序列生成的双阶段KV缓存优化框架
KV缓存是大语言模型(LLM)处理长文本的关键性能瓶颈,现有研究多聚焦于预填充阶段优化,忽视了解码阶段的重要性。本文提出SCOPE框架,通过分离预填充与解码阶段的KV缓存策略,实现高效管理。SCOPE保留预填充阶段的关键信息,并在解码阶段引入滑动窗口等策略,确保重要特征的有效选取。实验表明,SCOPE仅用35%原始内存即可达到接近完整缓存的性能水平,显著提升了长文本生成任务的效率和准确性。
307 3
SCOPE:面向大语言模型长序列生成的双阶段KV缓存优化框架
深入探讨:Spring与MyBatis中的连接池与缓存机制
Spring 与 MyBatis 提供了强大的连接池和缓存机制,通过合理配置和使用这些机制,可以显著提升应用的性能和可扩展性。连接池通过复用数据库连接减少了连接创建和销毁的开销,而 MyBatis 的一级缓存和二级缓存则通过缓存查询结果减少了数据库访问次数。在实际应用中,结合具体的业务需求和系统架构,优化连接池和缓存的配置,是提升系统性能的重要手段。
221 4
MyBatis缓存机制
MyBatis提供两级缓存机制:一级缓存(Local Cache)默认开启,作用范围为SqlSession,重复查询时直接从缓存读取;二级缓存(Second Level Cache)需手动开启,作用于Mapper级别,支持跨SqlSession共享数据,减少数据库访问,提升性能。
65 1
|
28天前
|
Redis--缓存击穿、缓存穿透、缓存雪崩
缓存击穿、缓存穿透和缓存雪崩是Redis使用过程中可能遇到的常见问题。理解这些问题的成因并采取相应的解决措施,可以有效提升系统的稳定性和性能。在实际应用中,应根据具体场景,选择合适的解决方案,并持续监控和优化缓存策略,以应对不断变化的业务需求。
94 29
Redis 与 AI:从缓存到智能搜索的融合之路
Redis 已从传统缓存系统发展为强大的 AI 支持平台,其向量数据库功能和 RedisAI 模块为核心,支持高维向量存储、相似性搜索及模型服务。文章探讨了 Redis 在实时数据缓存、语义搜索与会话持久化中的应用场景,并通过代码案例展示了与 Spring Boot 的集成方式。总结来看,Redis 结合 AI 技术,为现代应用提供高效、灵活的解决方案。
Redis缓存设计与性能优化
Redis缓存设计与性能优化涵盖缓存穿透、击穿、雪崩及热点key重建等问题。针对缓存穿透,可采用缓存空对象或布隆过滤器;缓存击穿通过随机设置过期时间避免集中失效;缓存雪崩需确保高可用性并使用限流熔断组件;热点key重建利用互斥锁防止大量线程同时操作。此外,开发规范强调键值设计、命令使用和客户端配置优化,如避免bigkey、合理使用批量操作和连接池管理。系统内核参数如vm.swappiness、vm.overcommit_memory及文件句柄数的优化也至关重要。慢查询日志帮助监控性能瓶颈。
62 9
缓存与数据库的一致性方案,Redis与Mysql一致性方案,大厂P8的终极方案(图解+秒懂+史上最全)
缓存与数据库的一致性方案,Redis与Mysql一致性方案,大厂P8的终极方案(图解+秒懂+史上最全)
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等