小弟最近做了这样一个测试: ab -n 100000 -c 400 192.168.3.130/ Server Software: Apache/2.2.21 Server Hostname: 192.168.3.130 Server Port: 80 Document Path: / Document Length: 44 bytes Concurrency Level: 400 Time taken for tests: 7.321617 seconds Complete requests: 100000 Failed requests: 0 Write errors: 0 Total transferred: 29514160 bytes HTML transferred: 4402112 bytes Requests per second: 13658.18 [#/sec] (mean) Time per request: 29.286 [ms] (mean) Time per request: 0.073 [ms] (mean, across all concurrent requests) Transfer rate: 3936.56 [Kbytes/sec] received ab -n 1000000 -c 400 192.168.3.130/ Concurrency Level: 400 Time taken for tests: 51.276322 seconds Complete requests: 1000000 Failed requests: 0 Write errors: 0 Total transferred: 295024190 bytes HTML transferred: 44003608 bytes Requests per second: 19502.18 [#/sec] (mean) Time per request: 20.511 [ms] (mean) Time per request: 0.051 [ms] (mean, across all concurrent requests) Transfer rate: 5618.75 [Kbytes/sec] received 同样的一台目标服务器,同样是400并发,为什么10000次请求的情况下是13000多每秒,100000次请求就变成19000多每秒了,各位高手,谁知道是为什么啊?
应该多测试几次取平均值######apache处理响应也是要排队的。你的请求数多了,要处理排队之类的情况。DoS攻击你不会没听过,当请求达到一定的量时,直接就停止服务了,那么这个响应时间又是多久? 你第二次的请求数是第一次的10倍啊。######我刚试了一下,100000次请求的情况,一次比一次快,16000~19000每秒,怀疑是apache的cache起了作用,1000000次请求的情况,稳定在18000左右,看来同一台WEB服务器,压力的性能差不多,响应时间也差不多。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。