性能测试

简介:

性能测试

做一个正确的性能测试并不容易,有不少需要注意的地方。下面是 Mio 的性能测试步骤,请大家参考指正。

系统设置

关闭 SELinux

如果你是 CentOS/RedHat 系列的操作系统,建议你关闭 SELinux,不然可能会遇到不少诡异的权限问题。

通过这个命令查看 SELinux 是否开启:

$ sestatus
SELinux status: disabled

如果是开启的,通过这个方法来临时关闭:

$ setenforce 0

同时修改 /etc/selinux/config 文件来永久关闭,将 SELINUX=enforcing 改为 SELINUX=disabled

最大打开文件数

$ cat /proc/sys/fs/file-nr
3984 0 3255296

第三个数字 3255296 就是当前系统的全局最大打开文件数。

如果你的机器中这个数字比较小,请修改为 100w 以上或者更多。 通过修改 /etc/sysctl.conf 文件来实现:

fs.file-max = 1020000
net.ipv4.ip_conntrack_max = 1020000
net.ipv4.netfilter.ip_conntrack_max = 1020000

需要重启系统服务来生效:

sudo sysctl -p /etc/sysctl.conf

进程限制

修改每一个进程可以打开文件数的限制,也就是 ulimit,这样子查看当前的限制:

$ ulimit -n
1024

临时修改的方法:

$ ulimit -n 1024000

永久修改,编辑 /etc/security/limits.conf, 增加:

* hard nofile 1024000
* soft nofile 1024000

星号代表的是所有用户。

测试是否支持到 C1000K

别着急,我们先用工具测试下,看我们这样子修改后,是否可以支持 C1000K。

这里有一个开源的工具,来自 SSDB 的作者:https://github.com/ideawu/c1000k

使用方法非常简单,启动一个服务端和客户端,来测试连接,具体见这个项目的说明。

修改 NGINX 参数

 user nginx;

 worker_processes 4;
 worker_cpu_affinity 0001 0010 0100 1000;

 events {
     worker_connections 10240;
 }

以上面的配置文件为例,有几个注意点:

  • 新增 OpenResty 的用户,这里取名为 nginx。这样可以保证基于 OpenResty 的程序不会干坏事儿,也不会被想干坏事儿的人利用。比如利用它来执行系统命令什么的。

  • NGINX 的工作进程设置为 4 个。我的测试环境是 24 核,我需要压测工具让每一个 NGINX 工作进程都跑满 CPU,所以我设置的并不高。在你的生成环境中,一般会设置为和 CPU 核数相同的值。

  • 设置 CPU 亲缘性,防止 CPU 资源使用不均衡。

  • 调整每个NGINX worker 的连接数限制。

    其中第二点和第三点,在 NGINX 1.9.10 以后的版本中可以自动完成,如下面所示:

    worker_processes auto;
    worker_cpu_affinity auto;

压测前的检查

压测前,你需要简单的用 curl 检查下 Mio的各个接口是否正常工作,比如:

curl -i http://127.0.0.1/hello
curl -i http://127.0.0.1:9090/status
curl -i http://127.0.0.1:9090/summary

不仅要看返回值,更要看 logs/error.log 是否有日志记录。

一般来说都是权限的问题。比如 NGINX 的用户没有代码目录的权限,你需要用 chown 来解决。特别注意的是,chmod 777 这样的命令过于粗暴,也有安全隐患,最好不要使用。

有时候,你关闭了 SELinux,也通过 chown 设置了正确的用户,还是报错,提示权限问题。这个时候不要像无头苍蝇一样胡乱尝试,你应该:

su nginx

切换到这个用户下,试试具体的问题。有时候是因为某个代码目录 没有执行权限, 你需要 chmod +x 来解决。

比如 /root/Mio/gateway 目录,你可能有 /root/Mio 目录的执行权限,却没有 /root 目录的执行权限。你可以 chmod +x 来解决,也可以换到其他目录来解决。

开始测试

这里我们选用 wrk 来进行压力测试,我们的目的是要让 NGINX worker 满载,而简单的 ab 可能做不到这一点。

wrk -t50 -c100 -d60s http://127.0.0.1/hello

wrk 这几个参数含义是,使用 50 个线程,100 个 http 并发连接,持续 60 秒的压力测试。

在我的测试环境中(24 核,32G内存,4个 NGINX worker),单纯的hello 接口,压力测试结果是:

$ wrk -t50 -c100 -d60s http://127.0.0.1/hello
Running 1m test @ http://127.0.0.1/hello
  50 threads and 100 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     0.89ms    1.74ms 149.47ms   99.79%
    Req/Sec     2.36k   215.54     8.26k    81.96%
  7046236 requests in 1.00m, 1.31GB read
Requests/sec: 117242.66
Transfer/sec:     22.24MB

加入 Mio 的统计代码后,压力测试结果是:

$ wrk -t50 -c100 -d60s http://127.0.0.1/hello
Running 1m test @ http://127.0.0.1/hello
  50 threads and 100 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     1.40ms    3.72ms 243.67ms   99.79%
    Req/Sec     1.57k   166.29     6.00k    82.67%
  4676844 requests in 1.00m, 0.87GB read
Requests/sec:  77818.01
Transfer/sec:     14.76MB

性能下降了 33% 左右。注意这个是和空跑的逻辑做的对比,也就是最坏的情况。 如果加了业务逻辑,比如查询下数据库、做几次字符串操作,那么对性能的影响就很低了。


本文转自birdinroom 51CTO博客,原文链接:http://blog.51cto.com/birdinroom/1884468,如需转载请自行联系原作者

相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
相关文章
|
9月前
|
监控 测试技术 应用服务中间件
系统性能测试
系统性能测试
115 0
|
测试技术 索引
性能测试 接口性能测试需要注意的点
性能测试 接口性能测试需要注意的点
89 0
|
缓存 负载均衡 监控
性能测试之思
在性能测试中,涉及的性能指标有很多,强行记忆理解可能是一件很吃力的事情。对性能指标进行分层划分,这样有助于记忆和理解。
|
存储 NoSQL 中间件
性能测试的初步认识
性能测试是通过自动化的测试工具模拟多种正常、峰值以及异常负载条件来对系统的各项性能指标进行测试。负载测试和压力测试都属于性能测试,两者可以结合进行。通过负载测试,确定在各种工作负载下系统的性能,目标是测试当负载逐渐增加时,系统各项性能指标的变化情况。压力测试是通过确定一个系统的瓶颈或者不能接受的性能点,来获得系统能提供的最大服务级别的测试。
701 2
性能测试的初步认识
|
缓存 运维 前端开发
|
测试技术 应用服务中间件 调度
性能测试基础了解
性能测试基础了解
97 0
|
存储 SQL 缓存
性能测试--性能测试数据准备
关于如何准备性能测试数据,相信不少性能测试人员也踩过不少坑:比如数据量不足,导致性能表现非常好,忽略了一些潜在性能问题;数据分布不合理,导致测试结果与线上差异较大,又要推到重来。经过n多次被坑之后,总结下经验。我们把测试数据准备分为两类数据:铺底数据和参数化数据。
522 0
|
测试技术
性能测试
性能测试
124 0
性能测试
|
测试技术 Python