Redis 存储分片之代理服务Twemproxy 测试

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
简介:

转载自:http://blog.jpush.cn/redis-twemproxy-benchmark/


概述


实际业务场景中单点 Redis 容量、并发都是有限的,所以有 Redis Cluster 的需求。

但是官方的 Redis Cluster 一再跳票,还不可用。

只好先使用最简单的方式:Proxy。有很多可选,但在大范围生产使用的, Twitter 开源的 Twemproxy  看起来是个理想的选择 - https://github.com/twitter/twemproxy 。

我们期望的目标:

  • tag/alias 缓存集群(现在单点容量支持越来越不够)

  • 数据统计时高并发缓存


下面的文章内容也是基于实际生产需要而进行的一系列测试.

 

测试环境说明


本次测试的机器都是虚拟机,对应的母机配置为 Dell R710   Intel(R) Xeon(R) CPU       E5606  @ 2.13GHz  2CPU(单CPU 4核)  32G内存,上面安装了4台虚拟机,配置分别如下:

序号

机器IP

配置

部署服务

redis服务数量

1

192.168.2.65

4cpu,8GRam

redis,twemproxy

4个端口分别为(10000,10002,10003,10004)

2

192.168.2.66

4cpu,8GRam

redis

2个端口分别为(10000,10002)

3

192.168.2.67

4cpu,8GRam

redis

2个端口分别为(10000,10002)

4

192.168.2.68

4cpu,4GRam

redis,twemproxy

2个端口分别为(10000,10002)


虚拟机系统: CentOS release 6.3 (Final)    

Redis版本:2.6.16

Twemproxy版本:nutcracker-0.2.4


部署示意图

clip_image002


下面的测试都是根据上面的配置不同组合来进行测试得出对应的结论。

测试工具:Redis Benchmark.

 

测试结论


功能

  1. 前端使用 Twemproxy 做代理,后端的 Redis 数据能基本上根据 key 来进行比较均衡的分布。

  2. 后端一台 Redis 挂掉后,Twemproxy 能够自动摘除。恢复后,Twemproxy 能够自动识别、恢复并重新加入到 Redis 组中重新使用。

  3. Redis 挂掉后,后端数据是否丢失依据 Redis 本身的策略配置,与 Twemproxy 基本无关。

  4. 如果要新增加一台 Redis,Twemproxy 需要重启才能生效;并且数据不会自动重新 Reblance,需要人工单独写脚本来实现。

  5. 如同时部署多个 Twemproxy,配置文件一致(测试配置为distribution:ketama,modula),则可以从任意一个读取,都可以正确读取 key对应的值。

  6. 多台 Twemproxy 配置一样,客户端分别连接多台 Twemproxy可以在一定条件下提高性能。根据 Server 数量,提高比例在 110-150%之间。

  7. 如原来已经有 2 个节点 Redis,后续有增加 2 个 Redis,则数据分布计算与原来的 Redis 分布无关,现有数据如果需要分布均匀的话,需要人工单独处理。

  8. 如果 Twemproxy 的后端节点数量发生变化,Twemproxy 相同算法的前提下,原来的数据必须重新处理分布,否则会存在找不到key值的情况


性能

不管 Twemproxy 后端有几台 Redis,前端的单个 Twemproxy 的性能最大也只能和单台 Redis 性能差不多。

 

Twemproxy介绍


Twemproxy 也叫 nutcraker。是 Twtter 开源的一个 Redis 和 Memcache 代理服务器,主要用于管理 Redis 和 Memcached 集群,减少与Cache 服务器直接连接的数量。

Twemproxy特性:

  • 轻量级、快速

  • 保持长连接

  • 减少了直接与缓存服务器连接的连接数量

  • 使用 pipelining 处理请求和响应

  • 支持代理到多台服务器上

  • 同时支持多个服务器池

  • 自动分片数据到多个服务器上

  • 实现完整的 memcached 的 ASCII 和再分配协议

  • 通过 yaml 文件配置服务器池

  • 支持多个哈希模式,包括一致性哈希和分布

  • 能够配置删除故障节点

  • 可以通过端口监控状态

  • 支持 linux, *bsd,os x 和 solaris


Twemproxy安装配置参考官网:https://github.com/twitter/twemproxy 或 附后的 Reference。


启动命令:

1
$ /usr/local/twemproxy/sbin/nutcracker  -d -c  /usr/local/twemproxy/etc/test .yml -i 2000 -o logs /nutcracker .log

或者修改源码的 scripts 中的 ini 代码以 service 方式启动。


运行中如果需要查看运行状态使用下面方式,结果为json格式,需要自己格式化。

1.web界面运行启动服务的http://ip:22222查看,如本次测试查看url:http://192.168.2.68:22222/

2.使用nc命令查看 Twemproxy 状态语句:

1
$nc 192.168.2.68 22222|python -mjson.tool

 

Twemproxy支持命令测试


源码的scripts中包含一些脚本可以进行基本功能测试,如下:

 

scripts目录脚本    

[root@test66 scripts]$ ls -tlh             
total 76K              
-rwxr-xr-x 1 root root 496 Oct 23 10:16 pipelined_read.sh              
-rwxr-xr-x 1 root root 639 Oct 23 10:16 pipelined_write.sh              
-rwxr-xr-x 1 root root 495 Oct 23 10:16 populate_memcached.sh              
-rw-r–r– 1 root root 665 Oct 23 10:16 redis-check.py              
-rwxr-xr-x 1 root root 48K Oct 23 10:16 redis-check.sh  #检测redis基本命令是否可以使用              
-rwxr-xr-x 1 root root 526 Oct 23 10:16 multi_get.sh              
-rw-r–r– 1 root root 1.2K Oct 23 10:16 nutcracker.init              
-rw-r–r– 1 root root 1.3K Oct 23 10:16 nutcracker.spec


从执行结果看,下面命令都可以使用(结合我们常用的命令)

del psetex linsert smove zscore dump set llen spop zunionstore exists setbit lpop srandmember eval expire psetex lpush srem persist setnx lpushx sunion expireat setrange lrange sunionstore expire hdel lrem zadd pttlhexists ltrim zcard ttl hget rpop zcount type hgetall append hincrby rpush zinterstore bitcount hincrbyfloat

rpushx zrange get hkeys sadd zrangebyscore getbit hlen scard zrank getrange zrem

getset hmset sdiffstore zremrangebyrank incr hset sinter zremrangebyscore incrby

hsetnx sinterstore zrevrange incrbyfloat hvals sismember zrevrangebyscore mget

lindex smembers zrevrank rpoplpush zincrby hmget sdiff


测试不支持的几个命令: restore decr  decrby

如果生产环境中使用的话,建议先检查是否有无法使用的命令后在决定使用。

 

Twemproxy 和单机 Redis 对比测试


测试方法:使用 Redis 自带压力测试工具 redis-benchmark 测试2-3次,取其中比较好的结果。

注:测试本机上面的 Redis 都是在其他客户端上面执行,避免由于不通过网络导致测试不准确.另外每次运行结果都有不同差距。


执行命令类似如下:

1
$ /usr/local/bin/redis-benchmark  -h 192.168.2.68 -p 10000 -c 100 -q


Twmemproxy 配置的后端 Redis 信息如下:

…             
distribution: ketama              
…              
servers:              
– 192.168.2.67:10000:1              
– 192.168.2.66:10000:1              
– 192.168.2.65:10000:1              
– 192.168.2.68:10000:1              
– 192.168.2.68:10002:1              
– 192.168.2.68:10003:1


从自带的压力测试工具看,基本上 Twemproxy 的性能和单台 Redis 服务基本差不多。后端自带 Redis 只是为数据更好的split(由于从实际统计信息看看,压力测试实际上只访问了后端的其中某一台redis服务,故这个结果也属于正常)

命令\IP

2.68:10000

2.68:10002

2.68:10003

2.68:10004

2.68:10005

2.67:10000

2.66:10000

2.65:10000

twemproxy(9999)

SET

21231.42

21598.27

21645.02

22026.43

21413.28

23364.49

23584.91

23310.02

25125.63

GET

26246.72

21739.13

20661.16

20876.83

21367.52

22831.05

23041.47

23809.53

25510.21

LPOP

20120.72

21276.60

21367.52

17152.66

21097.05

23474.18

23201.86

23696.68

22075.05

SADD

20449.90

21052.63

20833.33

20876.83

21551.72

23364.49

23094.69

23923.44

17825.31

LPUSH

26178.01

20833.33

21413.28

20876.83

21008.40

23809.53

23696.68

23696.68

23148.15

LRANGE_100

17452.01

14534.88

14245.01

14684.29

14144.27

15060.24

15267.18

15408.32

15503.88


clip_image004

 

Twemproxy后端接入不同 Redis 数量测试对比


本测试主要验证 Twemproxy 后端接入不同 Redis 数量后,测试的ops比较,结果只能作为参考意义。

设置测试方式,Twemproxy 的分布方式设置为 hash,测试对比如上图。基本上和单台redis性能差不多。实际看后端也只访问一台redis。


分布参数设置为random模式。可以比较均匀分布。


测试类似命令:

1
/usr/local/redis/bin/redis-benchmark  -h 192.168.2.65 -p 9999 -t SET  -n 1000000 -c 100 -q

目前环境: 2台机器都搭建 Twemproxy Server,每台端口为9999,19999,29999


目前6台 Redis 分别测试的结果为:

(31438.63+32406.51+37087.86+26886.78+34291.20+32544.67)/6=32442.6083

可以近似看成是 Redis 的单台性能。


测试方式:

1.后端 Redis 节点数量不变,不同 Twemproxy server 测试及多个同时运行测试结果如下:

twemproxy server运行数量(port)

1(A server)

1(B Server)

2

4

6

测试结果(/s)

30278.26

32867.71

35143.28

40176.777

52345.5152

从上面数据可以看出,单台最多也只能达到单个 Redis 的性能;2个节点运行性能增加大概110%左右。4个 server 运行,性能大概增加了123%,6个 server 接入运行160%。


2.前端使用1个 Twemproxy server,后端 Redis 数量分别为2,3,4,5,6来进行压力测试,看测试结果,测试数据如下:

redis节点数

2

3

4

5

6

测试结果(/s)

34882.1

34749.97

32296.61

32438.04

32867.71

从数据可以看出,后端节点数量与 Twemproxy 的性能基本无关,最大性能也就是单个 Redis 的性能。

 

Twemproxy功能测试


1.Twemproxy 正常访问,后端 Redis 挂掉一台,前端访问是否正常;后端 Redis 挂掉的恢复,不重启 Twemproxy,观察恢复的数据是否有继续增加


从测试结果看,基本正常,由于使用命令/usr/local/bin/redis-cli,无法看到错误信息,不能确认在中断瞬间是否有报错。


从各 Redis 的 keys 数量看,基本可以满足.测试过程中 Redis 中断不到1分钟。从实际数据看只丢失了15个key(总key数量为26W),可以认为Twemproxy 能够自动摘掉故障的 Redis 及自动恢复。

#初始化redis,各redis中的keys为空             
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 0 or not exists              
192.168.2.68:10002 keys: 0 or not exists              
192.168.2.68:10003 keys: 0 or not exists              
192.168.2.65:10000 keys: 0 or not exists              
192.168.2.66:10000 keys: 0 or not exists              
192.168.2.67:10000 keys: 0 or not exists              
#运行测试程序一段时间后查看              
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 5055              
192.168.2.68:10002 keys: 5619              
192.168.2.68:10003 keys: 6031              
192.168.2.65:10000 keys: 5708              
192.168.2.66:10000 keys: 4646              
192.168.2.67:10000 keys: 4453              
#kill掉一台redis后查看              
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 9045              
192.168.2.68:10002 keys: 8860              
192.168.2.68:10003 keys: 9552              
192.168.2.65:10000 keys: 12047              
192.168.2.66:10000 keys: 8920              
Could not connect to Redis at 192.168.2.67:10000: Connection refused              
192.168.2.67:10000 keys: 0 or not exists              
#恢复启动redis后查看              
[root@test_2_68 bin]$              
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 14170              
192.168.2.68:10002 keys: 11525              
192.168.2.68:10003 keys: 13349              
192.168.2.65:10000 keys: 15750              
192.168.2.66:10000 keys: 12206              
192.168.2.67:10000 keys: 9327              
#测试程序运行完毕后查看              
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 43186              
192.168.2.68:10002 keys: 38090              
192.168.2.68:10003 keys: 43069              
192.168.2.65:10000 keys: 49291              
192.168.2.66:10000 keys: 46428              
192.168.2.67:10000 keys: 39921              
#测试程序总共插入26W keys。从测试中看基本差15key,可以认为是redis中断期间未插入的。生产上如有容错机制,应可以接受              
[root@test_2_68 bin]$ echo “43186+38090+43069+49291+46428+39921″|bc              
259985


2.正常装载一部分数据,计算后端各 Redis 的 key 分布情况是否均匀

#总共插入26W个key,通过twemproxy的端口操作             
$sh getkeys.sh              
192.168.2.68:10000 keys: 42881              
192.168.2.68:10002 keys: 37990              
192.168.2.68:10003 keys: 42600              
192.168.2.65:10000 keys: 48144              
192.168.2.66:10000 keys: 45905              
192.168.2.67:10000 keys: 42480              
#从操作结束后查看各redis的keys看,基本上能够差不多一致,每个redis分布相对比较均匀


3. Twemproxy 默认使用(distribution: ketama)先使用后端3个节点装载key数量:300708 ,然后后端节点增加到6个(distribution: ketama),在装载300708个 key 值,对比分布趋势:

#插入300708个key,后端节点为3个redis             
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 95673              
192.168.2.68:10002 keys: 0 or not exists              
192.168.2.65:10002 keys: 0 or not exists              
192.168.2.65:10000 keys: 94225              
192.168.2.66:10000 keys: 110810              
192.168.2.66:10002 keys: 0 or not exists              
#继续插入300708个key,后端节点为6个redis              
[root@test_2_68 bin]$ sh getkeys.sh              
192.168.2.68:10000 keys: 140883 #新增45210              
192.168.2.68:10002 keys: 51135              
192.168.2.65:10002 keys: 49022              
192.168.2.65:10000 keys: 144687 #新增50462              
192.168.2.66:10000 keys: 167928 #新增57118              
192.168.2.66:10002 keys: 47761              
#可以看出,新增加后,数据继续增加还是根据key比较均匀分布,与已经存在的数据无关.现有的数据需要自己使用脚本重新分割


相同算法下,后续的数据都可以正常提取查找,但是原来已经在 Redis 的数据信息,部分找不到。具体数据如下:

算法规则

总keys数

未找到的keys

找到的keys

找到keys的比例

备注

distribution: ketama

300708

147757

152951

51.86%

缺省默认的算法

distribution: random

300708

250731

49977

16.62%

 

distribution: modula

300708

250408

50300

16.72%

 

distribution: ketama

300708

147757

152951

50.86%

缺省默认的算法


从上面可以看出,增加后端 Redis 后,Twemproxy 使用计算新的算法 key 保存的值。从缺省算法的成功率上可以看出,找不到的比例和增加的新的 Redis 点有一定关系(刚好大概一半找不到。我们增加了1倍的节点)

 

数据一致性测试


测试方法,分别开3个 Twemproxy server(port),分布格式为 ketama,ketama,random。从其中一个 ketama 分布的插入。然后分别从其他2个不同类型的 server 读取,判断读取值是否正确。

装载数据共300708记录,然后使用 get 方式读取,对应的 key 还是从源文件读取 key。可以看到,类型为 ketama 的2台 server 都可以全部获取到对应的key值,而 random 有2/3获取不到(总记录300708,能获取到key的记录:100347).

 

Reference


在测试中参考的网络部分资料,本文章中部分内容也有引用,在此感谢!














本文转自UltraSQL51CTO博客,原文链接:http://blog.51cto.com/ultrasql/1657767 ,如需转载请自行联系原作者


相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
2月前
|
NoSQL Redis Windows
windows服务器重装系统之后,Redis服务如何恢复?
windows服务器重装系统之后,Redis服务如何恢复?
72 6
|
24天前
|
Web App开发 定位技术 iOS开发
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
24 1
|
30天前
|
NoSQL 测试技术 Redis
Redis 性能测试
10月更文挑战第21天
35 2
|
1月前
|
存储 NoSQL 大数据
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
35 3
|
1月前
|
存储 Prometheus NoSQL
大数据-44 Redis 慢查询日志 监视器 慢查询测试学习
大数据-44 Redis 慢查询日志 监视器 慢查询测试学习
25 3
|
1月前
|
缓存 NoSQL Ubuntu
大数据-39 Redis 高并发分布式缓存 Ubuntu源码编译安装 云服务器 启动并测试 redis-server redis-cli
大数据-39 Redis 高并发分布式缓存 Ubuntu源码编译安装 云服务器 启动并测试 redis-server redis-cli
56 3
|
2月前
|
NoSQL Linux 测试技术
redis的安装步骤及前台,后台redis服务启动
这篇文章介绍了Redis的安装步骤,包括在Linux系统中下载、传输、解压、编译、安装Redis,以及Redis服务的前台和后台启动方法。
redis的安装步骤及前台,后台redis服务启动
|
2月前
|
NoSQL Linux Redis
Linux Redis 服务设置开机自启动
【9月更文挑战第2天】在 Linux 系统中,可使用两种方法设置 Redis 开机自启动:一是通过创建 `redis.service` 文件并利用 systemd 进行管理,包括定义服务参数和启动脚本;二是编辑 `/etc/rc.local` 文件,在其中添加启动命令。推荐使用 systemd 方法,因为它更符合现代 Linux 系统的设计理念。设置完成后,可通过 `sudo systemctl status redis.service` 检查服务状态。
421 3
|
3月前
|
存储 NoSQL Redis
【Azure Developer】一个复制Redis Key到另一个Redis服务的工具(redis_copy_net8)
【Azure Developer】一个复制Redis Key到另一个Redis服务的工具(redis_copy_net8)
【Azure Developer】一个复制Redis Key到另一个Redis服务的工具(redis_copy_net8)
|
3月前
|
NoSQL 网络协议 Linux
【AKS+Redis】AKS中客户端(ioredis)遇见Azure Redis服务Failover后链接中断的可能性
【AKS+Redis】AKS中客户端(ioredis)遇见Azure Redis服务Failover后链接中断的可能性
下一篇
无影云桌面