流量回放浅实践

简介: 实际案例

对于流量回放这个词,很多同学并不陌生,但绝大多数公司因种种原因并没有进行实践,最现实的原因是由于做全链路的流量回放有大量的写操作,必然要涉及到系统改造,数据加工脱敏等,技术难度和风险相对较高,并非每一家公司都如阿里巴巴一样具备大流量的应用场景,在系统改造不彻底的情况下,存在投入产出失衡的现象,这不仅是技术的问题,也需要文化的支持,从个人角度而言我们依然可以进行一些模拟,这次我总结了以goreplay工具的轻量级流量回放使用方法。

     

首先简单描述下goreplay工作流:

   

image.png

我们什么情况下可以用gorepaly去验证呢?

1.在预发布环境需要真实流量做功能的回归与验证;

2.验证网络带宽流量阈值

3.真实线上流量对比验证


如何去验证?

提供源码下载包,注意 :使用goreplay均在root权限或者使用sudo执行;

https://pan.baidu.com/s/1cfBnfbLaQntak4SMD8YPKw  密码:jcfl


1.下载完解压缩

tar xvf gor_1.0-RC2_x64.tar.gz

2.捕捉流量并通过终端输出

sudo ./goreplay --input-raw :8003 --output-stdout

上述命令将监控8003端口上所有的流量,并通过终端stdout输出。你可以通过浏览器或者curl访问8003端口,然后在终端查看gor输出所有的http请求。

3.捕捉流量并实时同步到另一台机器

sudo ./goreplay --input-raw :8003 --output-http="http://example:8005"

上述命令将8003端口的流量实时同步访问http://example:8005服务器,你在访问第一台服务器时,将看到流量以相同的顺序请求到第二台.

4.将捕捉流量保存到文件中,然后释放到其它机器,建议实战的时候使用该模式

有时候实时同步流量是很难做到的, 所以Goreplay提供了这种先保存后释放的模式:


第一步, 通过--output-file保存流量:

sudo ./goreplay --input-raw :8003 --output-file=requests.gor

上述命令将8003端口的流量,保存到requests.gor文件中(必须是.gor后缀,其它后缀经测释放时有问题)。

我们打开录制完成的gor文件发现,它保存了我们所有的请求内容(如下图):


image.png


第二步,如上图保存的流量,我们可以原来的方式执行释放:

./goreplay --input-file requests.gor --output-http="http://localhost:8005"

上述命令将释放所有保存在requests.gor中的请求通过相同的时间顺序释放到服务器http://localhost:8005


附上常用的参数解释:

--input-raw   #用来捕捉http流量,需要指定ip地址和端口

--input-file   #接收通过--output-file保存流量的文件

--input-tcp #将多个 Goreplay 实例获取的流量聚集到一个 Goreplay 实例

--output-stdout  #终端输出

--output-tcp #将获取的流量转移至另外的 Goreplay 实例

--output-http  #流量释放的对象server,需要指定ip地址和端口 --output-file   #录制流量时指定的存储文件


Goreplay的限速加速机制和请求过滤

无论是限速或者加速都具有现实意义,也是流量回放的亮点之一:


1.限速机制:

由于生产服务器配置一般远高于测试服务器配置,所以直接将生产服务器全部流量同步到测试服务器是不可行的,goreplay提供了两种策略:

限制每秒的请求数

sudo ./goreplay  --input-tcp :888 --output-http "http://staging.com|20"# (每秒请求数限制20个以内)

sudo ./goreplay  --input-raw :80 --output-tcp "replay.local:888|20%"  # (每秒请求数限制20%以内)

基于Header或Url的参数限制一些请求,为指定的header或者url的请求设定限制的百分比。

sudo ./goreplay  --input-raw :80 --output-tcp "replay.local:888|20%" --http-header-limiter "X-API-KEY: 20%"

sudo ./goreplay  --input-raw :80 --output-tcp "replay.local:888|20%" --http-param-limiter "api_key: 20%"


2.可以限制一些流量,我们就可以进行流量翻倍,也就是我刚刚提到的流量加速:

./gor --input-file '696_0.gor|1000%' --input-file-loop --output-http 'http://www.xxx.com' --output-http-workers 10 --stats --output-http-stats

1000%等于翻了10倍,workers代表消费的进程数,流量翻倍建议梯度缓慢增加,防止造成应用直接宕机的情况;

3.请求过滤:

当你需要捕捉指定路径的请求流量时,可以使用该机制, 如只同步/api路径下的请求

sudo ./goreplay --input-raw :8080 --output-http staging.com --http-allow-url /api

这样的方法可以对单请求进行压测,也是非常实用

另外还有其它一些参数用法:

--http-disallow-url    #不允许正则匹配的Url

--http-allow-header #允许的 Header 头

--http-disallow-header #不允许的 Header 头

--http-allow-method #允许的请求方法,传入值为GET, POST, OPTION


执行结果查看:

./gor --input-file '696_0.gor|1000%' --input-file-loop --output-http 'http://www.cctester.com' --output-http-workers 10 --stats --output-http-stats

执行结果的查看,在很多文档中,并没有对执行结果有详尽的阐述,但结果的查看对性能测试具有最直接的意义,性能测试人员一般会从客户端工直接获取结果,不过相对成熟的互联网公司一般不会局限于此,我们有更多的服务端工具进行统计,很多公司会自己去研发,也有付费的工具如听云等,goreplay提供的结果相对简单(如下图),最后一列为取样数,倒数第二列为取样/时间,可以理解为我们常见的qps;

image.png

目录
相关文章
|
5月前
|
Web App开发 编解码 资源调度
在阿里云直播解决方案中,当使用ARTC协议观看直播并进行清晰度切换时出现画面卡顿或马赛克现象,可能存在以下几种原因
【6月更文挑战第30天】阿里云直播中,ARTC协议下清晰度切换出现卡顿或马赛克可能由网络带宽、缓冲策略、转码效率、播放器解码、协议特点及服务器资源调度引起。解决措施包括优化网络、智能切换算法、播放器与服务器优化。通过监控和日志分析定位问题,参照官方最佳实践进行优化。
204 1
|
3月前
|
Kubernetes 网络协议 druid
一文详解长连接黑洞重现和分析
本文先通过重现在不同业务线反复出现的问题,详细描述了从业务、数据库、OS等不同的角度来分析如何解决它。
|
5月前
|
Unix Linux Go
流量回放工具之 Goreplay 安装及初级使用
【6月更文挑战第2天】流量回放工具之 Goreplay 安装及初级使用
493 3
|
6月前
|
Web App开发 数据采集 缓存
音视频学习之闲看视频整理低延迟
音视频学习之闲看视频整理低延迟
86 0
|
存储 API 开发工具
直播源码的神奇之处,直播回放功能
直播源码的功能有很多,之前的文章也列举了很多,那直播SDK和回放功能连在一起会将如何实现直播回放呢,今天我们来聊一聊这个技术点,感兴趣的朋友们可以关注下。
直播源码的神奇之处,直播回放功能
|
运维 Kubernetes Cloud Native
直播预告丨如何用 KubeSkoop 对 K8s 集群进行网络问题诊断
直播预告丨如何用 KubeSkoop 对 K8s 集群进行网络问题诊断
|
存储 缓存 JavaScript
亿级流量架构服务降级,写得太好了!
什么是服务降级 如果看过我前面对服务限流的分析,理解服务降级就很容易了,对于一个景区,平时随便进出,但是一到春节或者十一国庆这种情况客流量激增,那么景区会限制同时进去的人数,这叫限流,那么什么是服务降级呢?
213 0
亿级流量架构服务降级,写得太好了!
|
Web App开发 移动开发 缓存
【干货】跨端体验度量的思考与实现(含直播回放)
本文根据4月13日淘系技术前端团队出品的「阿里淘系用户体验优化前端实战系列直播」——《跨端体验度量的思考与实现》整理而成。
【干货】跨端体验度量的思考与实现(含直播回放)
|
缓存 监控 网络协议
为什么你看直播会卡,影响直播系统流畅度的主要是这三点
据相关部门的统计,截止到今年3月份,我国的网民数量已突破9.04亿人,互联网的普及率升至64.5%,相比2018年底提升了4.9个百分点。在这当中,移动端的网民用户猛增,随着移动互联网的发展手机逐渐超过电脑的使用率,移动端直播系统也逐渐崛起。
为什么你看直播会卡,影响直播系统流畅度的主要是这三点
|
传感器 缓存 编解码
一对一直播源码的实时互动划分,如何针对延迟进行优化
延迟是一对一直播源码开发过程中最关键的一个问题,如何保持低延迟、提高用户体验是技术人员一直需要思考的问题。