开发者社区 问答 正文

E-MapReduceSpark SQL作业配置是什么?


  1. 注意:Spark SQL 提交作业的模式默认是 yarn-client 模式。

  2. 进入阿里云E-MapReduce 控制台作业列表

  3. 单击该页右上角的创建作业,进入创建作业页面。

  4. 填写作业名称。

  5. 选择 Spark SQL 作业类型,表示创建的作业是一个 Spark SQL 作业。Spark SQL 作业在 E-MapReduce后台使用以下的方式提交:spark-sql [options] [cli option]

在“应用参数”选项框中填入 Spark SQL 命令后续的参数。
-e 选项
-e 选项可以直接写运行的 SQL,在作业 应用参数框中直接输入,如下所示:
  1. -e "show databases;"

-f 选项
-f 选项可以指定 Spark SQL 的脚本文件。通过将编写好的 Spark SQL 脚本文件放在 OSS上,可以更灵活,建议您使用这种运行方式。如下所示:
  1. -f ossref://your-bucket/your-spark-sql-script.sql

选择执行失败后策略。
单击 确定,Spark SQL 作业即定义完成。

展开
收起
nicenelly 2017-10-30 14:05:45 1506 分享 版权
1 条回答
写回答
取消 提交回答
  • 这个spark是大数据方面的吧,与关系型数据库MySQL应该不一致

    2021-10-12 10:13:57
    赞同 展开评论