开发者社区> 问答> 正文

Spark-Submit with Pyspark文件。

我正在尝试在集群中测试TensorflowOnSpark程序。我想我使用的是错误的spark-submit命令。请看下面

我试图提交一份如图所示的工作

~]$ spark-submit mnistOnSpark.py --cluster_size 10
上述作业成功运行,但在单个节点上运行,Executor和驱动程序都在同一台机器上。但是我需要在多个节点上运行。所以我尝试了下面的命令

~]$ spark-submit --master yarn-cluster mnistOnSpark.py --cluster_size 10
这是我应该用来提交工作的正确命令,还是我应该学习的任何其他东西。

--cluster_size是mnistOnSpark.py代码的命令行参数。

展开
收起
社区小助手 2018-12-06 15:36:42 2354 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    如果在yarn群集上运行作业,则可以运行以下命令:

    spark-submit --master yarn --jars --conf --name
    例如:

    spark-submit --master yarn --jars example.jar --conf spark.executor.instances=10 --name example_job example.py arg1 arg2
    因为mnistOnSpark.py你应该传递上面命令中提到的参数。

    spark submit认为你正试图通过--cluster_mode s park 工作。

    2019-07-17 23:18:34
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载