开发者社区> 问答> 正文

MaxCompute Spark中DataWorks的Spark配置的位置有何作用?

MaxCompute Spark中DataWorks的Spark配置的位置有何作用?

展开
收起
bnbajjyhyjfty 2021-12-12 15:02:16 666 0
1 条回答
写回答
取消 提交回答
  • 1Spark配置的位置 用户使用MaxcomputeSpark通常会有几个位置可以添加Spark配置,主要包括:

    。位置1:spark-defaultsconf用户通过客户端提交时在spark-defaultsconf文件中添加的Spark配置

    位置2:dataworks的配置项用户通过dataworks提交时在配置项添加的Spark配置,这部分配置最终会 在位置3中被添加

    位置3:配置在启动脚本spark-submit--conf选项中

    位置4:配置在用户代码中,用户在初始化SparkContext时设置的Spark配置 Spark配置的优先级 用户代码>spark-submit--选项>spark-defaultsconf配置>spark-envsh配置>默认值

    2021-12-12 15:02:52
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载