开发者社区> 问答> 正文

spark-shell 找不到hadoop so问题解决

spark-shell 找不到hadoop so问题解决

[main] WARN org.apache.hadoop.util.NativeCodeLoader - Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

展开
收起
茶什i 2019-10-29 14:56:37 508 0
2 条回答
写回答
取消 提交回答
  • 在Spark的conf目录下,修改spark-env.sh文件,加入LD_LIBRARY_PATH环境变量,值为HADOOP的native库路径即可

    2019-10-30 15:59:44
    赞同 展开评论 打赏
  • 精于基础,广于工具,熟于业务。

    在Spark配置目录下,修改spark-env.sh文件,增加LD_LIBRARY_PATH=HADOOP的native库路径.

    2019-10-30 15:02:17
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Apache Spark: Cloud and On-Prem 立即下载
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载