开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

请问大佬们,对flink进行压测,每条数据大小为160B,在1728核和960G内存的资源下,最大吞

请问大佬们,对flink进行压测,每条数据大小为160B,在1728核和960G内存的资源下,最大吞吐量为1800万/S。估算数据量7000万/S,每条数据大小为300B,需要配置的并发度和内存资源,是要用什么方式估算更合理,有这方面的资料吗

展开
收起
游客3oewgrzrf6o5c 2022-08-22 17:38:53 804 0
1 条回答
写回答
取消 提交回答
  • 对于Flink进行压测并估算所需的并发度和内存资源,可以考虑以下几个方面:

    1. 根据数据量和每条数据大小,计算所需的总内存。对于7000万/S,每条数据大小为300B,总内存大小为2.1TB。因此,需要至少配备2.1TB的内存资源。需要注意的是,这只是一个估算值,实际内存需求还要考虑Flink的运行环境、任务类型和数据处理逻辑等因素。

    2. 根据最大吞吐量和每条数据大小,计算所需的并发度。对于每条数据大小为300B的情况,可以根据最大吞吐量1800万/S,计算出每个实例(即每个Flink TaskManager)需要处理600个数据包(300B/160B*1800万/S)才能达到最大吞吐量。假设每个实例的并发度为100,则需要至少70个TaskManager实例才能满足需求。

    3. 针对实际情况进行调整。根据实际情况,需要根据任务类型、数据处理逻辑、数据源和目的地等因素进行调整。例如,如果数据源和目的地是分布式存储系统,需要考虑网络带宽和I/O等因素;如果数据处理逻辑较为复杂,需要增加内存资源和并发度等。

    需要注意的是,以上计算只是一个初步估算,实际情况可能会有所不同。建议在实际使用过程中,根据具体情况进行调整和优化。同时,Flink官方也提供了一些性能调优和优化的建议和方法,可以参考相关资料。

    2023-06-13 18:46:25
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    上云时代业务压测和诊断最佳实践 立即下载
    超大规模性能测试的云端方案及案例分享 立即下载
    Cassandra 性能压测及调优实战 立即下载