开发者社区> 问答> 正文

E-MapReduceSpark 作业配置是什么?


  1. 进入阿里云E-MapReduce 控制台作业列表

  2. 单击该页右上角的创建作业,进入创建作业页面。

  3. 填写作业名称。

  4. 选择 Spark 作业类型,表示创建的作业是一个 Spark 作业。Spark 作业在 E-MapReduce 后台使用以下的方式提交: spark-submit [options] --class [MainClass] xxx.jar args

应用参数选项框中填写提交该 Spark作业需要的命令行参数。请注意,应用参数框中只需要填写“spark-submit”之后的参数即可。以下分别示例如何填写创建 Spark 作业和 pyspark作业的参数。

  • 创建 Spark 作业
    新建一个 Spark WordCount 作业。
    作业名称: Wordcount

  • 类型:选择 Spark

  • 应用参数:
    在命令行下完整的提交命令是:
    1. spark-submit --master yarn-client --driver-memory 7G --executor-memory 5G --executor-cores 1 --num-executors 32 --class com.aliyun.emr.checklist.benchmark.SparkWordCount emr-checklist_2.10-0.1.0.jar oss://emr/checklist/data/wc oss://emr/checklist/data/wc-counts 32

  • 在 E-MapReduce 作业的应用参数框中只需要填写:
    1. --master yarn-client --driver-memory 7G --executor-memory 5G --executor-cores 1 --num-executors 32 --class com.aliyun.emr.checklist.benchmark.SparkWordCount ossref://emr/checklist/jars/emr-checklist_2.10-0.1.0.jar oss://emr/checklist/data/wc oss://emr/checklist/data/wc-counts 32

需要注意的是:作业 Jar 包保存在 OSS 中,引用这个 Jar 包的方式是ossref://emr/checklist/jars/emr-checklist_2.10-0.1.0.jar。您可以单击 选择 OSS路径,从 OSS 中进行浏览和选择,系统会自动补齐 OSS 上 Spark脚本的绝对路径。请务必将默认的“oss”协议切换成“ossref”协议。
创建 pyspark 作业
E-MapReduce 除了支持 Scala 或者 Java 类型作业外,还支持 python 类型 Spark 作业。以下新建一个 python 脚本的Spark Kmeans 作业。

  • 作业名称:Python-Kmeans

  • 类型:Spark

  • 应用参数:
    1. --master yarn-client --driver-memory 7g --num-executors 10 --executor-memory 5g --executor-cores 1  ossref://emr/checklist/python/kmeans.py oss://emr/checklist/data/kddb 5 32

  • 支持 Python 脚本资源的引用,同样使用“ossref”协议。

  • pyspark 目前不支持在线安装 Python 工具包。

选择执行失败后策略。
单击 确定,Spark 作业即定义完成。

展开
收起
nicenelly 2017-10-30 14:05:14 1348 0
0 条回答
写回答
取消 提交回答
问答排行榜
最热
最新

相关电子书

更多
spark替代HIVE实现ETL作业 立即下载
Spark介绍及Spark多数据源分析 立即下载
Apache Flink 案例集(2022版) 立即下载