我用了800并发,csv数据有40w不重复的数据,按理说入参不会用到重复数据,但是日志里面显示发了重复数据,请问是啥原因呢?H5KI04UM 这是五百并发的报告,500并发就不会有重复入参请求,800并发和1000并发的会有重复的 DWK704GM 这是1000并发的
500并发只使用了一台施压机 ,从这个文件里取数据,因此不会重复,800、1000并发的使用了两台施压机,每台施压机都使用了完整的数据,因此会有重复的,可以在场景配置上勾选切分文件,这样会把文件分成多份。此回答整理自钉群“【4群】PTS用户交流群”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
云原生可观测基于Prometheus、Grafana 、OpenTelemetry 等核心产品, 形成指标、链路存储分析、异构数据源集成的数据层, 通过标准PromQL和SQL提供大盘展示、告警与探索能力。