Redis+SpringBoot企业版集群实战------【华为云版】(下)

简介: Redis+SpringBoot企业版集群实战------【华为云版】

Redis+SpringBoot企业版集群实战------【华为云版】(中):https://developer.aliyun.com/article/1420246


添加依赖

<dependencies> 
     <!-- spring data redis 组件 --> 
     <dependency> 
         <groupId>org.springframework.boot</groupId>
         <artifactId>spring-boot-starter-data-redis</artifactId> 
     </dependency> 
     <!-- commons-pool2 对象池依赖 --> 
     <dependency> 
         <groupId>org.apache.commons</groupId> 
         <artifactId>commons-pool2</artifactId> 
     </dependency> 
     <!-- web 组件 --> 
     <dependency> 
         <groupId>org.springframework.boot</groupId> 
         <artifactId>spring-boot-starter-web</artifactId> 
     </dependency> 
     <!-- test 组件 --> 
     <dependency> 
         <groupId>org.springframework.boot</groupId> 
         <artifactId>spring-boot-starter-test</artifactId> 
     <scope>test</scope> 
   </dependency> 
</dependencies>


添加application.yml配置文件

spring: 
   redis: 
     # Redis服务器地址
     host: 192.168.10.100 
     # Redis服务器端口
     port: 6379 
     # Redis服务器端口
     password: root 
     # Redis服务器端口
     database: 0 
     # 连接超时时间
     timeout: 10000ms 
     lettuce: 
       pool: 
         # 最大连接数,默认8 
         max-active: 1024 
         # 最大连接阻塞等待时间,单位毫秒,默认-1ms 
         max-wait: 10000ms 
         # 最大空闲连接,默认8 
         max-idle: 200 
         # 最小空闲连接,默认0 
         min-idle: 5 


测试环境测试环境是否搭建成功

@RunWith(SpringRunner.class) 
@SpringBootTest(classes = SpringDataRedisApplication.class) 
public class SpringDataRedisApplicationTests { 
     @Autowired 
     private RedisTemplate redisTemplate; 
     @Autowired 
     private StringRedisTemplate stringRedisTemplate; 
     @Test 
     public void initconn() { 
         ValueOperations<String, String> ops = stringRedisTemplate.opsForValue(); 
         ops.set("username","lisi"); 
         ValueOperations<String, String> value = redisTemplate.opsForValue(); 
         value.set("name","wangwu"); 
         System.out.println(ops.get("name")); 
     } 
} 


自定义模板解决序列化问题


默认情况下的模板 RedisTemplate,默认序列化使用的是 JdkSerializationRedisSerializer ,存储二进制字节码。这时需要自定义模板,当自定义模板后又想存储 String 字符串时,可以使StringRedisTemplate的方式,他们俩并不冲突。


序列化问题:


要把 domain object 做为 key-value 对保存在 redis 中,就必须要解决对象的序列化问题。Spring Data Redis给我们提供了一些现成的方案:


JdkSerializationRedisSerializer 使用JDK提供的序列化功能。 优点是反序列化时不需要提供类型信息(class), 但缺点是序列化后的结果非常庞大,是JSON格式的5倍左右,这样就会消耗 Redis 服务器的大量内存。

Jackson2JsonRedisSerializer 使用 Jackson 库将对象序列化为JSON字符串。优点是速度快,序列化后的字符串短小精悍。但缺点也非常致命,那就是此类的构造函数中有一个类型参数,必须提供要序列化对象的类型信息(.class 对象)。通过查看源代码,发现其只在反序列化过程中用到了类型信息。  


GenericJackson2JsonRedisSerializer 通用型序列化,这种序列化方式不用自己手动指定对象的 Class

@Configuration 
public class RedisConfig { 
 @Bean 
 public RedisTemplate<String,Object> redisTemplate(LettuceConnectionFactory redisConnectionFactory){ 
     RedisTemplate<String,Object> redisTemplate = new RedisTemplate<>();
     //为string类型key设置序列器
     redisTemplate.setKeySerializer(new StringRedisSerializer()); 
     //为string类型value设置序列器
     redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer()); 
     //为hash类型key设置序列器
     redisTemplate.setHashKeySerializer(new StringRedisSerializer()); 
     //为hash类型value设置序列器
     redisTemplate.setHashValueSerializer(new GenericJackson2JsonRedisSerializer()); 
     redisTemplate.setConnectionFactory(redisConnectionFactory); 
     return redisTemplate; 
   } 
} 
//序列化
@Test 
public void testSerial(){ 
     User user = new User(); 
     user.setId(1); 
     user.setUsername("张三"); 
     user.setPassword("111"); 
     ValueOperations<String, Object> value = redisTemplate.opsForValue(); 
     value.set("userInfo",user); 
     System.out.println(value.get("userInfo")); 
} 


操作string


// 1.操作String 
@Test 
public void testString() { 
     ValueOperations<String, Object> valueOperations = redisTemplate.opsForValue(); 
     // 添加一条数据
     valueOperations.set("username", "zhangsan"); 
     valueOperations.set("age", "18"); 
    // redis中以层级关系、目录形式存储数据
    valueOperations.set("user:01", "lisi"); 
    valueOperations.set("user:02", "wangwu"); 
     // 添加多条数据
     Map<String, String> userMap = new HashMap<>(); 
     userMap.put("address", "bj"); 
     userMap.put("sex", "1"); 
     valueOperations.multiSet(userMap); 
     // 获取一条数据
     Object username = valueOperations.get("username"); 
     System.out.println(username); 
     // 获取多条数据
     List<String> keys = new ArrayList<>(); 
     keys.add("username"); 
     keys.add("age"); 
     keys.add("address"); 
     keys.add("sex"); 
     List<Object> resultList = valueOperations.multiGet(keys); 
     for (Object str : resultList) { 
         System.out.println(str); 
     } 
     // 删除
     redisTemplate.delete("username"); 
} 


操作hash


// 2.操作Hash 
@Test 
public void testHash() { 
     HashOperations<String, String, String> hashOperations = redisTemplate.opsForHash(); 
     /* 
     * 添加一条数据
     * 参数一:redis的key 
     * 参数二:hash的key 
     * 参数三:hash的value 
     */ 
     hashOperations.put("userInfo","name","lisi"); 
     // 添加多条数据
     Map<String, String> map = new HashMap(); 
     map.put("age", "20"); 
     map.put("sex", "1"); 
     hashOperations.putAll("userInfo", map); 
     // 获取一条数据
     String name = hashOperations.get("userInfo", "name"); 
     System.out.println(name); 
     // 获取多条数据
     List<String> keys = new ArrayList<>(); 
     keys.add("age"); 
     keys.add("sex"); 
     List<String> resultlist =hashOperations.multiGet("userInfo", keys); 
     for (String str : resultlist) { 
         System.out.println(str); 
    } 
    // 获取Hash类型所有的数据
     Map<String, String> userMap = hashOperations.entries("userInfo"); 
     for (Entry<String, String> userInfo : userMap.entrySet()) { 
     System.out.println(userInfo.getKey() + "--" + userInfo.getValue()); 
   } 
     // 删除 用于删除hash类型数据
     hashOperations.delete("userInfo", "name"); 
}


操作list

// 3.操作list 
@Test 
public void testList() { 
    ListOperations<String, Object> listOperations = redisTemplate.opsForList(); 
    // 左添加(上) 
    // listOperations.leftPush("students", "Wang Wu"); 
    // listOperations.leftPush("students", "Li Si"); 
    // 左添加(上) 把value值放到key对应列表中pivot值的左面,如果pivot值存在的话
    //listOperations.leftPush("students", "Wang Wu", "Li Si"); 
    // 右添加(下) 
    // listOperations.rightPush("students", "Zhao Liu"); 
    // 获取 start起始下标 end结束下标 包含关系
    List<Object> students = listOperations.range("students", 0,2); 
    for (Object stu : students) { 
        System.out.println(stu); 
    } 
    // 根据下标获取
    Object stu = listOperations.index("students", 1); 
    System.out.println(stu); 
    // 获取总条数
    Long total = listOperations.size("students"); 
    System.out.println("总条数:" + total); 
    // 删除单条 删除列表中存储的列表中几个出现的Li Si。
    listOperations.remove("students", 1, "Li Si"); 
    // 删除多条
    redisTemplate.delete("students"); 
} 


操作set


// 4.操作set-无序
@Test 
public void testSet() { 
     SetOperations<String, Object> setOperations = redisTemplate.opsForSet(); 
     // 添加数据
     String[] letters = new String[]{"aaa", "bbb", "ccc", "ddd", "eee"}; 
     //setOperations.add("letters", "aaa", "bbb", "ccc", "ddd", "eee"); 
     setOperations.add("letters", letters); 
     // 获取数据
     Set<Object> let = setOperations.members("letters"); 
     for (Object letter: let) { 
         System.out.println(letter); 
     } 
     // 删除
     setOperations.remove("letters", "aaa", "bbb"); 
} 


操作sorted set


// 5.操作sorted set-有序
@Test 
public void testSortedSet() { 
     ZSetOperations<String, Object> zSetOperations = redisTemplate.opsForZSet(); 
     ZSetOperations.TypedTuple<Object> objectTypedTuple1 = new DefaultTypedTuple<Object>("zhangsan", 7D); 
     ZSetOperations.TypedTuple<Object> objectTypedTuple2 = new DefaultTypedTuple<Object>("lisi", 3D); 
     ZSetOperations.TypedTuple<Object> objectTypedTuple3 = new DefaultTypedTuple<Object>("wangwu", 5D); 
     ZSetOperations.TypedTuple<Object> objectTypedTuple4 = new DefaultTypedTuple<Object>("zhaoliu", 6D); 
     ZSetOperations.TypedTuple<Object> objectTypedTuple5 = new DefaultTypedTuple<Object>("tianqi", 2D); 
     Set<ZSetOperations.TypedTuple<Object>> tuples = new HashSet<ZSetOperations.TypedTuple<Object>>(); 
     tuples.add(objectTypedTuple1); 
     tuples.add(objectTypedTuple2); 
     tuples.add(objectTypedTuple3); 
     tuples.add(objectTypedTuple4); 
     tuples.add(objectTypedTuple5); 
     // 添加数据
     zSetOperations.add("score", tuples); 
     // 获取数据
     Set<Object> scores = zSetOperations.range("score", 0, 4); 
     for (Object score: scores) { 
             System.out.println(score); 
         } 
    // 获取总条数
     Long total = zSetOperations.size("score"); 
     System.out.println("总条数:" + total);
     // 删除
     zSetOperations.remove("score", "zhangsan", "lisi"); 
} 


获取所有key&删除


// 获取所有key 
@Test 
public void testAllKeys() { 
 // 当前库key的名称
 Set<String> keys = redisTemplate.keys("*"); 
 for (String key: keys) { 
     System.out.println(key); 
  } 
} 
// 删除
@Test 
public void testDelete() { 
     // 删除 通用 适用于所有数据类型
     redisTemplate.delete("score"); 
}


设置key的失效时间


@Test 
public void testEx() { 
     ValueOperations<String, Object> valueOperations = redisTemplate.opsForValue(); 
     // 方法一:插入一条数据并设置失效时间
     valueOperations.set("code", "abcd", 180, TimeUnit.SECONDS); 
     // 方法二:给已存在的key设置失效时间
     boolean flag = redisTemplate.expire("code", 180, TimeUnit.SECONDS); 
     // 获取指定key的失效时间
     Long l = redisTemplate.getExpire("code"); 
} 


SpringDataRedis整合使用哨兵机制


application.yml

spring: 
     redis: 
         # Redis服务器地址
         host: 192.168.10.100 
         # Redis服务器端口
         port: 6379 
         # Redis服务器端口
         password: root 
         # Redis服务器端口
         database: 0 
         # 连接超时时间
         timeout: 10000ms 
         lettuce: 
             pool: 
                 # 最大连接数,默认8 
                 max-active: 1024 
                 # 最大连接阻塞等待时间,单位毫秒,默认-1ms 
                 max-wait: 10000ms 
                 # 最大空闲连接,默认8 
                 max-idle: 200 
                 # 最小空闲连接,默认0 
                 min-idle: 5 
         #哨兵模式
         sentinel: 
             #主节点名称
             master: mymaster 
             #节点
             nodes: 192.168.10.100:26379,192.168.10.100:26380,192.168.10.100:26381 
目录
相关文章
|
6月前
|
监控 Java API
Spring Boot 3.2 结合 Spring Cloud 微服务架构实操指南 现代分布式应用系统构建实战教程
Spring Boot 3.2 + Spring Cloud 2023.0 微服务架构实践摘要 本文基于Spring Boot 3.2.5和Spring Cloud 2023.0.1最新稳定版本,演示现代微服务架构的构建过程。主要内容包括: 技术栈选择:采用Spring Cloud Netflix Eureka 4.1.0作为服务注册中心,Resilience4j 2.1.0替代Hystrix实现熔断机制,配合OpenFeign和Gateway等组件。 核心实操步骤: 搭建Eureka注册中心服务 构建商品
1065 3
|
4月前
|
NoSQL Java 网络安全
SpringBoot启动时连接Redis报错:ERR This instance has cluster support disabled - 如何解决?
通过以上步骤一般可以解决由于配置不匹配造成的连接错误。在调试问题时,一定要确保服务端和客户端的Redis配置保持同步一致。这能够确保SpringBoot应用顺利连接到正确配置的Redis服务,无论是单机模式还是集群模式。
424 5
|
4月前
|
监控 Cloud Native Java
Spring Boot 3.x 微服务架构实战指南
🌟蒋星熠Jaxonic,技术宇宙中的星际旅人。深耕Spring Boot 3.x与微服务架构,探索云原生、性能优化与高可用系统设计。以代码为笔,在二进制星河中谱写极客诗篇。关注我,共赴技术星辰大海!(238字)
Spring Boot 3.x 微服务架构实战指南
|
5月前
|
存储 NoSQL 前端开发
Redis专题-实战篇一-基于Session和Redis实现登录业务
本项目基于SpringBoot实现黑马点评系统,涵盖Session与Redis两种登录方案。通过验证码登录、用户信息存储、拦截器校验等流程,解决集群环境下Session不共享问题,采用Redis替代Session实现数据共享与自动续期,提升系统可扩展性与安全性。
339 3
Redis专题-实战篇一-基于Session和Redis实现登录业务
|
5月前
|
消息中间件 Ubuntu Java
SpringBoot整合MQTT实战:基于EMQX实现双向设备通信
本教程指导在Ubuntu上部署EMQX 5.9.0并集成Spring Boot实现MQTT双向通信,涵盖服务器搭建、客户端配置及生产实践,助您快速构建企业级物联网消息系统。
2120 1
|
5月前
|
存储 缓存 NoSQL
Redis专题-实战篇二-商户查询缓存
本文介绍了缓存的基本概念、应用场景及实现方式,涵盖Redis缓存设计、缓存更新策略、缓存穿透问题及其解决方案。重点讲解了缓存空对象与布隆过滤器的使用,并通过代码示例演示了商铺查询的缓存优化实践。
269 1
Redis专题-实战篇二-商户查询缓存
|
11月前
|
数据采集 存储 数据可视化
分布式爬虫框架Scrapy-Redis实战指南
本文介绍如何使用Scrapy-Redis构建分布式爬虫系统,采集携程平台上热门城市的酒店价格与评价信息。通过代理IP、Cookie和User-Agent设置规避反爬策略,实现高效数据抓取。结合价格动态趋势分析,助力酒店业优化市场策略、提升服务质量。技术架构涵盖Scrapy-Redis核心调度、代理中间件及数据解析存储,提供完整的技术路线图与代码示例。
1156 0
分布式爬虫框架Scrapy-Redis实战指南
|
5月前
|
NoSQL Java 调度
分布式锁与分布式锁使用 Redis 和 Spring Boot 进行调度锁(不带 ShedLock)
分布式锁是分布式系统中用于同步多节点访问共享资源的机制,防止并发操作带来的冲突。本文介绍了基于Spring Boot和Redis实现分布式锁的技术方案,涵盖锁的获取与释放、Redis配置、服务调度及多实例运行等内容,通过Docker Compose搭建环境,验证了锁的有效性与互斥特性。
422 0
分布式锁与分布式锁使用 Redis 和 Spring Boot 进行调度锁(不带 ShedLock)
|
8月前
|
缓存 监控 NoSQL
Redis 实操要点:Java 最新技术栈的实战解析
本文介绍了基于Spring Boot 3、Redis 7和Lettuce客户端的Redis高级应用实践。内容包括:1)现代Java项目集成Redis的配置方法;2)使用Redisson实现分布式可重入锁与公平锁;3)缓存模式解决方案,包括布隆过滤器防穿透和随机过期时间防雪崩;4)Redis数据结构的高级应用,如HyperLogLog统计UV和GeoHash处理地理位置。文章提供了详细的代码示例,涵盖Redis在分布式系统中的核心应用场景,特别适合需要处理高并发、分布式锁等问题的开发场景。
523 41
|
8月前
|
机器学习/深度学习 存储 NoSQL
基于 Flink + Redis 的实时特征工程实战:电商场景动态分桶计数实现
本文介绍了基于 Flink 与 Redis 构建的电商场景下实时特征工程解决方案,重点实现动态分桶计数等复杂特征计算。通过流处理引擎 Flink 实时加工用户行为数据,结合 Redis 高性能存储,满足推荐系统毫秒级特征更新需求。技术架构涵盖状态管理、窗口计算、Redis 数据模型设计及特征服务集成,有效提升模型预测效果与系统吞吐能力。
891 10

热门文章

最新文章