如题,数据在磁盘中,一般因为压缩等原因,在加载到内存中,完全展开以后,数据会膨胀很多,为了更好的利用内存,和调整相应参数,如何准确获取到,或者能预估出数据集在内存中的大小 当前尝试使用创建df.cache.count,然后通过执行计划获取数据集大小 val bytes = spark.sessionState.executePlan(df.queryExecution.logical).optimizedPlan.stats.sizeInBytes 但是,该值和直接cache 数据集有很大的差异,我目前无法判断哪一个是准确的
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。