开发者社区> 问答> 正文

针对Integer >MAX_VALUE 有什么好建议吗?

_
日志信息如图。

展开
收起
hbase小助手 2018-11-27 18:39:41 1701 0
1 条回答
写回答
取消 提交回答
  • 描述不太清楚,看情况是 Spark RDD 的分区限制,不能超过 2GB。建议做如下尝试:

    • 1、如果是 Spark core 的应用,则不要对 RDD 做 persist
    • 2、如果是 Spark sql 的应用,则增大 spark.sql.shuffle.partitions ,默认值是 200

    希望能有效解决这个问题。

    2019-07-17 23:16:38
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
How big data can help small da 立即下载
Large Scale Data Files,Object 立即下载
How big data can help small data? 立即下载