CreateJob 创建作业
请求参数
字段 | 类型 | 是否必须 | 默认值 | 描述 |
Name | String | 是 | 无 | 作业名称 |
Type | String | 是 | 无 | 作业类型,HADOOP,SPARK,HIVE,PIG |
RunParameter | String | 是 | 无 | 作业的参数 |
FailAct | String | 是 | 无 | 失败后的操作。STOP:停止,CONTINUE:继续后续的作业 |
RegionId | String | 是 | 无 |
字段 | 类型 | 描述 |
Id | String | 作业Id |
JSON 格式
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
您提到的CreateJob操作是阿里云Elastic MapReduce (EMR) 服务中的一个API调用,用于创建一个特定类型的工作作业(如Hadoop、Spark、Hive或Pig等)在EMR集群上执行。下面是对您给出的信息的一个详细解析和补充说明:
Name (String
, 必须):
Type (String
, 必须):
HADOOP
, SPARK
, HIVE
, PIG
等,根据实际需求选择。RunParameter (String
, 必须):
FailAct (String
, 必须):
STOP
或 CONTINUE
。如果设置为 STOP
,则作业失败后停止后续作业;如果设置为 CONTINUE
,则即使当前作业失败,也会继续执行队列中的下一个作业。RegionId (String
, 必须):
cn-hangzhou
表示杭州区域。String
):
基于上述参数,一个创建Spark作业的示例请求URL(已替换敏感信息和格式化以增强可读性)可能如下所示:
https://emr.aliyuncs.com/?Action=CreateJob
&Name=MySparkJobExample
&Type=SPARK
&RunParameter={"mainClass":"com.example.MySparkApp","jarPath":"oss://my-bucket/jars/myapp.jar"}
&FailAct=CONTINUE
&RegionId=cn-hangzhou
&<AccessKeyId>
&<SignatureMethod>
&<SignatureVersion>
&<Timestamp>
&<Signature>
请注意,实际请求中还需要包含阿里云的认证信息,比如AccessKeyId
、签名方法(SignatureMethod
)、签名版本(SignatureVersion
)、时间戳(Timestamp
)以及计算出的签名(Signature
),这些通常通过HTTP头或者查询参数的方式传递,确保请求的安全性和有效性。具体如何构造这些认证参数,可以参考阿里云官方文档中的指导。