MaxCompute Spark中DataWorks的Spark配置的位置有何作用?
1Spark配置的位置 用户使用MaxcomputeSpark通常会有几个位置可以添加Spark配置,主要包括:
。位置1:spark-defaultsconf用户通过客户端提交时在spark-defaultsconf文件中添加的Spark配置
位置2:dataworks的配置项用户通过dataworks提交时在配置项添加的Spark配置,这部分配置最终会 在位置3中被添加
位置3:配置在启动脚本spark-submit--conf选项中
位置4:配置在用户代码中,用户在初始化SparkContext时设置的Spark配置 Spark配置的优先级 用户代码>spark-submit--选项>spark-defaultsconf配置>spark-envsh配置>默认值
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。