开发者社区 > 云原生 > 容器服务 > 正文

scala- Yarn 上的 spark-无法分配容器,提示请求的资源大于允许 怎么解决

scala- Yarn 上的 spark-无法分配容器,因为请求的资源大于允许的最大分配

展开
收起
账号已穿越 2021-10-27 14:34:17 1143 0
0 条回答
写回答
取消 提交回答

国内唯一 Forrester 公共云容器平台领导者象限。

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载