CreateJob 创建作业
请求参数
字段 | 类型 | 是否必须 | 默认值 | 描述 |
Name | String | 是 | 无 | 作业名称 |
Type | String | 是 | 无 | 作业类型,HADOOP,SPARK,HIVE,PIG |
RunParameter | String | 是 | 无 | 作业的参数 |
FailAct | String | 是 | 无 | 失败后的操作。STOP:停止,CONTINUE:继续后续的作业 |
RegionId | String | 是 | 无 |
字段 | 类型 | 描述 |
Id | String | 作业Id |
JSON 格式
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
您提到的CreateJob操作是阿里云E-MapReduce(EMR)服务中的一个API调用,用于创建一个新的作业。E-MapReduce是一种大数据处理服务,它基于Apache Hadoop和Apache Spark等开源技术,为用户提供便捷的数据处理能力。下面是对您给出的请求参数和返回参数的详细解释:
Name (String, 必须): 作业的名称,这是用户自定义的一个标识符,用于区分不同的作业。
Type (String, 必须): 作业的类型,决定了作业执行的框架或引擎。可选值包括HADOOP
, SPARK
, HIVE
, PIG
等,分别对应使用Hadoop MapReduce、Spark、Hive或Pig来执行作业。
RunParameter (String, 必须): 作业运行时的具体参数。这些参数根据作业类型的不同而不同,例如对于Spark作业,可能包含main class、jar包路径等信息;对于Hive作业,则可能是HQL查询语句。
FailAct (String, 必须): 当作业执行失败时采取的操作策略。可选值有STOP
和CONTINUE
。选择STOP
表示一旦当前作业失败,后续作业将不会被执行;选择CONTINUE
则意味着即使当前作业失败,也会继续尝试执行后续作业。
RegionId (String, 必须): 阿里云区域ID,指明作业将在哪个地域的EMR集群上执行。例如,cn-hangzhou
代表中国杭州区域。
您提供的示例是一个HTTP请求的格式,展示了如何通过阿里云API网关调用来创建作业:
https://emr.aliyuncs.com/?Action=CreateJob
&Name=mySparkJob
&Type=SPARK
&RunParameter={"mainClass":"com.example.MySparkApp","jarPath":"oss://my-bucket/my-jar.jar"}
&FailAct=STOP
&RegionId=cn-hangzhou
&<AccessKeyId>
&<SignatureMethod>
&<SignatureVersion>
&<Timestamp>
&<Signature>
请注意,实际发起请求时,还需要添加阿里云账号的AccessKey ID、Signature等安全认证信息,并按照阿里云API签名机制正确构造签名字符串,以确保请求的安全性和有效性。