在dataworks的spark节点里面,怎么提交命令行参数?
抱歉我没理解你是啥意思,现在是什么场景在用到这两个参数?这个spark任务是否已经在本地测试跑过了呢?,此回答整理自钉群“MaxCompute开发者社区1群”
在DataWorks的Spark节点中,可以通过在命令行参数中添加 -- 前缀,来传递参数。
例如,在提交Spark作业的命令行参数中,添加 --input /path/to/input 参数表示输入路径。
另外,也可以在DataWorks的Spark节点中,通过添加参数配置来设置命令行参数。具体步骤如下:
在DataWorks中创建一个Spark节点,并打开节点编辑页面。
在“参数配置”一栏中,点击“添加”按钮,添加一个新的参数配置。
在参数配置中,选择“命令行参数”,并输入参数名称和参数值。例如,可以输入“input”作为参数名称,输入“/path/to/input”作为参数值。
在Spark节点中引用这个参数配置,并在命令行参数中添加 --input ${input} 表示输入路径。其中 ${input} 表示引用参数配置中的参数值。
提交Spark作业时,会自动引用参数配置中的参数值作为命令行参数。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。