Spark3.2.1源码编译(傻瓜式图文教学)

简介: Spark3.2.1源码编译(傻瓜式图文教学)

1、官网下载 3.2.1版本

链接:Downloads | Apache Spark

640.png


2、将文件上传至服务器解压,并对其dev下 make-distribution.sh做配置

    tar -zxvf spark-3.2.1.tgz

    640.png

      进入到 spark-3.2.1目录下的dev目录


      640.png

      3、对文件   make-distribution.sh 进行配置

        vim make-distribution.sh将版本信息注释掉自己指定,如下


        640.png


        4、指定scala版本

          [root@g7-8x-bigdata0 dev] ./change-scala-version.sh 2.12

          5、进行编译

            [root@g7-8x-bigdata0 dev]  ./dev/make-distribution.sh --name 3.2.1-hadoop3.2.1 --tgz -Phive -Phive-thriftserver -Pyarn -Dhadoop.version=3.2.1 -Dscala.version=2.12.15

            注意:命令中对应兼容的hadoop和scala版本号一定要写对哇!


            6、编译成功

            出现success即可

            640.png


            编译完以后进入到目录下可以看到编译好的jar包


            640.png

            7、编译遇到的问题

            1)编译所需依赖包下载慢

              exec: curl --silent --show-error -L https://downloads.lightbend.com/scala/。。。。


              解决办法:

                在linux 配置 maven,并且maven镜像要使用阿里云镜像,并在 spark家目录下dev下文件make-distribution.sh如下处 指定maven路径,如下:

                640.png

                2)编译时提示内存不足

                  Java HotSpot(TM) 64-Bit Server VM warning: CodeCache is full. Compiler has been disabled

                  解决办法:

                  指定的maven内存—调大

                  在配置的环境变量中加入:

                    export MAVEN_OPTS="-Xms1024m -Xmx1024m -Xss1m"

                    然后source  /etc/profile !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

                    相关文章
                    |
                    8月前
                    |
                    SQL 分布式计算 大数据
                    【大数据技术Spark】DStream编程操作讲解实战(图文解释 附源码)
                    【大数据技术Spark】DStream编程操作讲解实战(图文解释 附源码)
                    171 0
                    |
                    8月前
                    |
                    Java Shell 分布式数据库
                    【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
                    【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
                    166 0
                    |
                    8月前
                    |
                    分布式计算 Java 大数据
                    【大数据技术Hadoop+Spark】HDFS Shell常用命令及HDFS Java API详解及实战(超详细 附源码)
                    【大数据技术Hadoop+Spark】HDFS Shell常用命令及HDFS Java API详解及实战(超详细 附源码)
                    757 0
                    |
                    8月前
                    |
                    SQL 分布式计算 数据库
                    【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
                    【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
                    316 0
                    |
                    8月前
                    |
                    分布式计算 大数据 Scala
                    【大数据技术Hadoop+Spark】Spark RDD创建、操作及词频统计、倒排索引实战(超详细 附源码)
                    【大数据技术Hadoop+Spark】Spark RDD创建、操作及词频统计、倒排索引实战(超详细 附源码)
                    364 1
                    |
                    3月前
                    |
                    分布式计算 大数据 Java
                    大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
                    大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
                    46 1
                    大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
                    |
                    8月前
                    |
                    分布式计算 Java Scala
                    Spark-Adaptive编译和打包
                    Spark-Adaptive编译和打包
                    40 0
                    Spark-Adaptive编译和打包
                    |
                    8月前
                    |
                    分布式计算 Java Hadoop
                    Spark3.3.0源码编译补充篇-抓狂的证书问题
                    Spark3.3.0源码编译补充篇-抓狂的证书问题
                    50 0
                    |
                    8月前
                    |
                    分布式计算 Java 测试技术
                    肝Spark源码的若干骚操作
                    肝Spark源码的若干骚操作
                    54 0
                    |
                    8月前
                    |
                    分布式计算 安全 Java
                    Spark 编译出现 InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
                    Spark 编译出现 InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
                    195 0