请问大佬们,对flink进行压测,每条数据大小为160B,在1728核和960G内存的资源下,最大吞

请问大佬们,对flink进行压测,每条数据大小为160B,在1728核和960G内存的资源下,最大吞吐量为1800万/S。估算数据量7000万/S,每条数据大小为300B,需要配置的并发度和内存资源,是要用什么方式估算更合理,有这方面的资料吗

展开
收起
游客3oewgrzrf6o5c 2022-08-22 17:38:53 821 分享 版权
1 条回答
写回答
取消 提交回答
  • 对于Flink进行压测并估算所需的并发度和内存资源,可以考虑以下几个方面:

    1. 根据数据量和每条数据大小,计算所需的总内存。对于7000万/S,每条数据大小为300B,总内存大小为2.1TB。因此,需要至少配备2.1TB的内存资源。需要注意的是,这只是一个估算值,实际内存需求还要考虑Flink的运行环境、任务类型和数据处理逻辑等因素。

    2. 根据最大吞吐量和每条数据大小,计算所需的并发度。对于每条数据大小为300B的情况,可以根据最大吞吐量1800万/S,计算出每个实例(即每个Flink TaskManager)需要处理600个数据包(300B/160B*1800万/S)才能达到最大吞吐量。假设每个实例的并发度为100,则需要至少70个TaskManager实例才能满足需求。

    3. 针对实际情况进行调整。根据实际情况,需要根据任务类型、数据处理逻辑、数据源和目的地等因素进行调整。例如,如果数据源和目的地是分布式存储系统,需要考虑网络带宽和I/O等因素;如果数据处理逻辑较为复杂,需要增加内存资源和并发度等。

    需要注意的是,以上计算只是一个初步估算,实际情况可能会有所不同。建议在实际使用过程中,根据具体情况进行调整和优化。同时,Flink官方也提供了一些性能调优和优化的建议和方法,可以参考相关资料。

    2023-06-13 18:46:25
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理