开发者社区> 问答> 正文

请问下我spark-submit指定yarn模式为什么还是运行在本地?

请问下我spark-submit指定yarn模式为什么还是运行在本地?

DINGTALK_IM_2316161325.JPG

executor还是在本地

提交命令是

spark-submit --class hbase.SparkExToHBase 

hbasemove-jar-with-dependencies.jar --

master yarn--deploy-mode client --driver-

memory 1g --num-executors 1 --executor-

memory 2g --executor-cores 2 

试了deploy-mode cluster也不行

使用yarn提交一直没有提交上

222.JPG

本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。https://developer.aliyun.com/article/706511 点击链接欢迎加入感兴趣的技术领域群。

展开
收起
初商 2019-08-14 16:11:17 756 0
1 条回答
写回答
取消 提交回答
  • --executor-memory 是指定每个executor(执行器)占用的内存 --total-executor-cores是所有executor总共使用的cpu核数 --executor-cores是每个executor使用的cpu核数 对于spark-shell还可以在yarn上执行: --master yarn-client 这里必须是client,不同于spark-submit的yarn-cluster, 因为spark-shell作为一个与用户交互的命令行,必须将Driver运行在本地,而不是yarn上, 其他的参数与submit一样.

    答案来源于网络

    2019-09-24 20:09:28
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
深度学习+大数据 TensorFlow on Yarn 立即下载
Docker on Yarn 微服务实践 立即下载
深度学习+大数据-TensorFlow on Yarn 立即下载