开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

在Spark2.0中基于代价的优化器有什么问题?

在Spark2.0中基于代价的优化器有什么问题? 求大佬解答

展开
收起
爱吃鱼的程序员 2020-12-28 11:12:30 549 0
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    数据统计信息普遍缺失,统计信息的收集代价较高;储存计算分离的架构使得收集到的统计信息可能不再准确;Spark部署在某一单一的硬件架构上,cost很难被估计;Spark的UDF(User-definedFunction)简单易用,种类繁多,但是对于CBO来说是个黑盒子,无法估计其cost。

    2020-12-28 11:12:47
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

相关电子书

更多
SparkSQL实践与优化 立即下载
MaxCompute SQL计算成本调优以及优化方法 立即下载
低代码开发师(初级)实战教程 立即下载