在Spark2.0中基于代价的优化器有什么问题?

在Spark2.0中基于代价的优化器有什么问题? 求大佬解答

展开
收起
爱吃鱼的程序员 2020-12-28 13:46:44 789 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    数据统计信息普遍缺失,统计信息的收集代价较高;储存计算分离的架构使得收集到的统计信息可能不再准确;Spark部署在某一单一的硬件架构上,cost很难被估计;Spark的UDF(User-definedFunction)简单易用,种类繁多,但是对于CBO来说是个黑盒子,无法估计其cost。

    2020-12-28 13:47:01 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

还有其他疑问?
咨询AI助理