SparkContext无法以master设置为“Yarn”开始-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

SparkContext无法以master设置为“Yarn”开始

我试图在Scala API(Play框架)中运行SparkContext。当我将Spark master设置为“local”时,它工作正常,但是,当我将master设置为“YARN”时,它会引发异常:

[SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.]
当我检查容器的日志时,我得到以下内容:

Error: Could not find or load main class org.apache.spark.deploy.yarn.ExecutorLauncher
如果我运行 spark-shell --master yarn 它运行SparkContext没有任何问题。

这是我的代码:

val sparkS = SparkSession.builder
.config("spark.hadoop.validateOutputSpecs", "false")
.config("spark.executor.memory", "4g")
.config("spark.driver.memory", "3g")
.config("spark.rpc.message.maxSize", "2047")
.config("SPARK_DIST_CLASSPATH", "/usr/local/spark/jars/*")
.config("spark.yarn.archive", "hdfs://localhost:54310/spark-libs.jar")
.config("spark.yarn.jars", "/usr/local/spark/jars/*")
.config("spark.executor.extraJavaOptions", "-XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"")
.config("spark.executor.extraLibraryPath", "/usr/local/hadoop-2.8.5/lib/native:/usr/local/hadoop-2.8.5/lib/native/Linux-amd64-64")
.config("HADOOP_CONF_DIR", "/usr/local/hadoop-2.8.5/etc/hadoop")
.config("spark.yarn.am.waitTime", "1d")
.master("yarn").getOrCreate

展开
收起
社区小助手 2018-12-19 17:14:44 2729 0
1 条回答
写回答
取消 提交回答
  • 社区小助手
    社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    提交spark jar时你必须提到主类.Below是格式

    ./bin/spark-submit \
    --class \
    --master \
    --deploy-mode \
    --conf = \
    ... # other options
    \
    [application-arguments]

    2019-07-17 23:23:05
    赞同 展开评论 打赏
问答标签:
问答地址:
问答排行榜
最热
最新
相关电子书
更多
基于Docker on Yarn系统的微服务实践
立即下载
深度学习+大数据 TensorFlow on Yarn
立即下载
Docker on Yarn 微服务实践
立即下载