一.go-redis的安装与快速开始
这里操作redis数据库,我们选用go-redis
这一第三方库来操作,首先是三方库的下载,我们可以执行下面这个命令:
go get github.com/redis/go-redis/v9
最后我们尝试一下连接本机的redis数据库,以及执行一个简单的redis
操作:
package main
import (
"context"
"github.com/redis/go-redis/v9"
)
func main() {
rdb := redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0,
})
//go-redis支持Context,我们可以用它来控制超时会传递数据
ctx := context.Background()
rdb.Set(ctx, "key", "value", 100)
val, err := rdb.Get(ctx, "key").Result()
if err != nil {
panic(err)
}
println(val)
}
输出结果为:
value
同时,go-redis
还支持Context,我们可以用这个机制来实现一些我们想要的功能,比如传递数据和设置超时时间:
package main
import (
"context"
"github.com/redis/go-redis/v9"
)
type contextkey string
var userIDKey contextkey = "userID"
func main() {
rdb := redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0,
})
//go-redis支持Context,我们可以用它来控制超时会传递数据
ctx := context.WithValue(context.Background(), userIDKey, "123")
//利用上下文来传递数据
userID := ctx.Value(userIDKey).(string)
rdb.Set(ctx, "ID", userID, 0)
val, err := rdb.Get(ctx, "ID").Result()
if err != nil {
panic(err)
}
//// 设置超时时间为 2 秒
//ctx, cancel := context.WithTimeout(context.Background(), 2*time.Second)
//defer cancel() // 确保在函数结束时取消上下文
println(val)
}
二.go-redis的基本操作
rdb.Del(ctx, "ID") //删除键
rdb.Expire(ctx, "ID", 100) //设置过期时间
rdb.Persist(ctx, "ID") //取消过期时间
rdb.TTL(ctx, "ID") //获取ID的过期时间
rdb.PTTL(ctx, "ID") //获取ID的剩余过期时间
rdb.Type("ID") //查询类型
rdb.Scan(0,"",4) //扫描
三. go-redis操作字符串
首先对字符串的操作还是很简单的:
package main
import (
"context"
"fmt"
"github.com/redis/go-redis/v9"
)
func main() {
rdb := redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0, // use default DB
})
ctx := context.Background()
rdb.Set(ctx, "token1", "abcefghijklmn", 0) // 设置token
rdb.MSet(ctx, "token2", "abcefghijklmn", "cookie1", "123456") // 设置多个key
a := rdb.MGet(ctx, "token1", "token2", "cookie1").Val()
fmt.Println(a)
//数字增减操作
rdb.Set(ctx, "age", "1", 0)
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.Incr(ctx, "age")
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.IncrBy(ctx, "age", 5)
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.Decr(ctx, "age")
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.DecrBy(ctx, "age", 5)
fmt.Println(rdb.Get(ctx, "age").Val())
}
String可以算是Redis使用最为频繁的基础数据类型了,它的作用非常广泛,简单的它可以实现一个计数器,向这样:
rdb.Set(ctx, "age", "1", 0)
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.Incr(ctx, "age")
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.IncrBy(ctx, "age", 5)
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.Decr(ctx, "age")
fmt.Println(rdb.Get(ctx, "age").Val())
rdb.DecrBy(ctx, "age", 5)
fmt.Println(rdb.Get(ctx, "age").Val())
它也可以用来实现分布式锁,后面我们会详细的探讨分布式锁的原理,这里我们就简单的介绍一下什么是分布式锁:
我们在微服务中会在一个服务中部署多个进程,需要我们操作多个进程,在多进程中为了避免同时操作一个共享变量产生数据问题,通常会使用一把锁来互斥以保证共享变量的正确性,但是单机锁发挥作用是单进程中使用,我们应该如何给多个进程上锁呢?
我们这里可以选择第三方来做裁判,这里我们一般会使用Zookeeper
和redis
来作为第三方,所有进程都去这个裁判这里申请加锁。而这个外部系统,必须要实现互斥能力,即两个请求同时进来,只会给一个进程加锁成功,另一个失败,接下来我们来看一下这个分布式锁怎么来实现:
在set
命令中通过NX
参数我们可以实现key 不存在才插入
,我们可以用它来实现分布式锁:
- 如果 key 不存在,则显示插入成功,可以用来表示加锁成功;
- 如果 key 存在,则会显示插入失败,可以用来表示加锁失败。
分布式锁加锁命令如下:
set lock uuid NX PX 10000
lock
:key键uuid
:客户端生成的唯一的标识NX
: 只在 lock 不存在时,才对 lock 进行设置操作PX
:设置锁的过期时间
而解锁就是删除lock
键,但是这个命令不能随便删,我们要保证执行该操作的客户端是加了锁的,这就导致我们删锁的操作分为以下两步:
- 判断锁的 uuid 是否为加锁客户
- 删除锁
但是由于是俩个操作,这就导致删锁的操作不具有原子性,所以需要我们借助Lua
脚本来实现操作的原子性,Lua脚本如下:
这样一来,就通过使用 SET 命令和 Lua 脚本在 Redis 单节点上完成了分布式锁的加锁和解锁。if redis.call("get",KEYS[1]) == ARGV[1] then return redis.call("del",KEYS[1]) else return 0 end
最后我们还可以用Redis共享 Session 信息:
在我们写后台管理系统的时候,我们一般需要存储用户的Jwt
或者Session
来保存用户的登录状态,单服务器下Session 信息会被保存在服务器端,但是分布式系统下,用户一的 Session 信息被存储在服务器一,但第二次访问时用户一被分配到服务器二,这个时候服务器并没有用户一的 Session 信息,就会出现需要重复登录的问题,问题在于分布式系统每次会把请求随机分配到不同的服务器,而为了解决这个问题我们就会选择redis服务器来对这些 Session 信息进行统一的存储和管理,这样无论请求发送到那台服务器,服务器都会去同一个 Redis 获取相关的 Session 信息,进而解决了分布式系统下 Session 存储的问题,结构示例如下:
go-redis操作list
首先我们来看一下一些常用的命令:
// 左边添加
redisClient.LPush("list", "a", "b", "c", "d", "e")
// 右边添加
redisClient.RPush("list", "g", "i", "a")
// 在参考值前面插入值
redisClient.LInsertBefore("list", "a", "aa")
// 在参考值后面插入值
redisClient.LInsertAfter("list", "a", "gg")
// 设置指定下标的元素的值
redisClient.LSet("list", 0, "head")
//访问列表长度
redisClient.Len("list")
// 左边弹出元素
redisClient.LPop("list")
// 右边弹出元素
redisClient.RPop("list")
// 访问指定下标的元素
redisClient.LIndex("list", 1)
// 访问指定范围内的元素
redisClient.LRange("list", 0, 1)
// 保留指定范围的元素
redisClient.LTrim("list", 0, 1)
// 删除指定元素
redisClient.LRem("list", 0, "a")
关于List的使用场景我也没有找到太多的案例,但是博主找到了一个比较有趣的实践:基于List
这一数据结构来实现一个简单的消息队列,接下来博主将尝试写一个简单的消息队列来作为我们List
数据结果的实践:
一个合格的消息队列应该满足下面几个要求:
- 消息的保序性
- 如何处理重复的消息
- 保证消息的可靠性
首先我们如何保证消息的有序性呢?由于我们是用List
这一数据结构来实现对消息队列的模拟,所以不生就可以实现对消息的保序性了,我们现在要完成的就是生产者基于Push
操作完成对消息的生产,消费者基于Pop
完成对信息地消费即可,一般来说下面这个组合就可以了
LPUSH
+RPOP
RPUSH
+LPOP
但是现在有一个问题:List
本身是不会去提醒消费者有新消息写入,如果消费者想要及时处理消息,我们应该怎么做呢?首先我们的想法应该是让消费者程序不断去执行RPOP
操作,如果有新消息写入,RPOP 命令就会返回结果,否则,RPOP 命令返回空值,再继续循环。但是这样一来消费者程序的 CPU 一直消耗在执行 RPOP 命令上,带来不必要的性能损失,所以这里我们可以选择使用BRPOP
操作,执行该操作时,客户端在没有读到队列数据的时候会自动阻塞,直到有新的数据写入队列,再开始读取新数据。和消费者程序自己不停地调用 RPOP 命令相比,这种方式能节省 CPU 开销。
示例代码如下:
package main
import (
"context"
"github.com/redis/go-redis/v9"
)
var client *redis.Client
var ctx context.Context
type Custom struct {
}
type Product struct {
}
func Init() {
client = redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0,
})
ctx = context.Background()
}
func (product *Product) AddMessage(key string, value any) error {
//生产消息
return client.LPush(ctx, key, value).Err()
}
func (custom *Custom) ConsumerMessage(key string) ([]string, error) {
message, err := client.BRPop(ctx, 0, key).Result()
return message, err
}
在解决完消息的有序性之后我们要面临的下一个问题就是如何避免重复的处理消息?我们可以给每一个消息加上一个全局唯一 ID,这样消费者在消费时可以把已经消费的消息id记录下来,每次即将消费新消息的时候进行对比,避免对已经处理的消息进行重复操作,这里我采用了雪花算法生成分布式id的方式来实现对全局唯一id的生成,有关雪花算法的相关操作就不赘述了,我之前的文章中也有所介绍,具体可以参考:go语言后端开发学习(六) ——基于雪花算法生成用户ID
我们来看一下具体的代码可以怎么写:
func Init() {
client = redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0,
})
ctx = context.Background()
err := sony.Init()
if err != nil {
fmt.Println("Init sonyflake failed,err:", err)
}
}
func (product *Product) AddMessage(key string, value any) error {
//生产消息
id, err := sony.GetID()
if err != nil {
return err
}
value = fmt.Sprintf("%d:%v", id, value) //添加id
return client.LPush(ctx, key, value).Err()
}
func (custom *Custom) ConsumerMessage(key string) ([]string, error) {
message, err := client.BRPop(ctx, 0, key).Result()
id := custom.SplitMessage(message)
if !custom.CheckId(id) {
err := fmt.Errorf("id:%s is already processed", id)
return nil, err
}
return message, err
}
func (custom *Custom) SplitMessage(message []string) string {
str := strings.Split(message[1], ":")
return str[0]
}
func (custom *Custom) CheckId(id string) bool {
//检测id是否已经处理过
for _, v := range idmap {
if v == id {
return false //该消息已经处理过了
}
}
idmap = append(idmap, id) //添加到idmap
return true
}
这里代码主要是添加了全局唯一id的生成,以及对id的解析与判断。
最后我们如何保证消息的可靠性呢?大家乍一听这个可能有点懵,这是什么意思?现在有一个情况,如果消费者程序从 List 中读取一条消息后,List 就不会再留存这条消息了。所以,如果消费者程序在处理消息的过程出现了故障或宕机,就会导致消息没有处理完成,那么,消费者程序再次启动后,就没法再次从 List 中读取消息了,那么我们如何解决就这样情况呢?
为了留存消息,List 类型提供了 BRPOPLPUSH
命令,这个命令的作用是让消费者程序从一个 List 中读取消息,同时,Redis 会把这个消息再插入到另一个 List(可以叫作备份 List)留存。
这样一来,如果消费者程序读了消息但没能正常处理,等它重启后,就可以从备份 List 中重新读取消息并进行处理了,实现也非常简单:
func (custom *Custom) ConsumerMessage(key1,key2 string) (string, error) {
message, err := client.BRPopLPush(ctx, key1,key2,0).Result()
id := custom.SplitMessage(message)
if !custom.CheckId(id) {
err := fmt.Errorf("id:%s is already processed", id)
return "", err
}
return message, err
}
最后就有了我们最后的代码:
package main
import (
"context"
"fmt"
"github.com/redis/go-redis/v9"
sony "go-redis/sonyflake"
"strings"
)
var client *redis.Client
var ctx context.Context
var idmap []string //不暴露到包外,避免被修改
type Custom struct {
}
type Product struct {
}
func Init() {
client = redis.NewClient(&redis.Options{
Addr: "localhost:6379",
Password: "",
DB: 0,
})
ctx = context.Background()
err := sony.Init()
if err != nil {
fmt.Println("Init sonyflake failed,err:", err)
}
}
func (product *Product) AddMessage(key string, value any) error {
//生产消息
id, err := sony.GetID()
if err != nil {
return err
}
value = fmt.Sprintf("%d:%v", id, value) //添加id
return client.LPush(ctx, key, value).Err()
}
func (custom *Custom) ConsumerMessage(key1, key2 string) (string, error) {
message, err := client.BRPopLPush(ctx, key1, key2, 0).Result()
id := custom.SplitMessage(message)
if !custom.CheckId(id) {
err := fmt.Errorf("id:%s is already processed", id)
return "", err
}
return message, err
}
func (custom *Custom) SplitMessage(message string) string {
str := strings.Split(message, ":")
return str[0]
}
func (custom *Custom) CheckId(id string) bool {
//检测id是否已经处理过
for _, v := range idmap {
if v == id {
return false //该消息已经处理过了
}
}
idmap = append(idmap, id) //添加到idmap
return true
}
func main() {
//测试样例
Init() // 初始化 Redis 客户端和 Sonyflake
product := &Product{
}
custom := &Custom{
}
// 测试数据
testKey1 := "test-queue"
testKey2 := "test-queue2"
testValue := "Hello, world!"
// 生产消息
err := product.AddMessage(testKey1, testValue)
if err != nil {
fmt.Println("Failed to add message: %v", err)
}
// 消费消息
message, err := custom.ConsumerMessage(testKey1, testKey2)
if err != nil {
fmt.Println("Failed to consume message: %v", err)
}
id := custom.SplitMessage(message)
fmt.Println(id)
}
用List模拟消息队列缺点是比较多的,比如它不支持多个消费者消费同一条消息,因为一旦消费者拉取一条消息后,这条消息就从 List 中删除了,无法被其它消费者再次消费,在后面我们会介绍Stream
这一数据类型,我们到时候会基于它实现功能更加强大的消息队列。