在实际的项目开发中,很多时候我们可能会用java和scala混合开发,比如Flink或者Spark的项目,他们两个可以相互调用,也有各自的优缺点,结合起来使用非常的方便,但是在编译打包的时候很多朋友遇到要么Java的包没打进去,或者Scala的包没打进去,运行的时候报各种找不到jar包的错,下面介绍一种打包的方法,可以运行项目里面的任何一个方法,供大家参考,当然还有很多其他的打包方式.
直接看下面的maven里面的配置
<build> <plugins> <!-- scala编译插件 --> <plugin> <groupId>net.alchim31.maven</groupId> <artifactId>scala-maven-plugin</artifactId> <version>3.2.2</version> <configuration> <recompileMode>incremental</recompileMode> </configuration> <executions> <execution> <goals> <goal>compile</goal> <goal>testCompile</goal> </goals> </execution> </executions> </plugin> <!-- java编译插件 --> <plugin> <artifactId>maven-compiler-plugin</artifactId> <!-- 插件的版本 --> <version>3.6.1</version> <!-- 编译级别 强制为jdk1.8--> <configuration> <source>1.8</source> <target>1.8</target> <!-- 编码格式 --> <encoding>UTF-8</encoding> </configuration> </plugin> <!-- maven 打包插件 --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <version>2.4.3</version> <executions> <execution> <phase>package</phase> <goals> <goal>shade</goal> </goals> <configuration> <transformers> <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer"> <!-- 指定main的位置 --> <mainClass>*</mainClass> </transformer> </transformers> <filters> <filter> <artifact>*:*</artifact> <!-- 过滤不需要的jar包 --> <excludes> <exclude>META-INF/*.SF</exclude> <exclude>META-INF/*.DSA</exclude> <exclude>META-INF/*.RSA</exclude> </excludes> </filter> </filters> </configuration> </execution> </executions> </plugin> </plugins> </build>
里面需要配置java,scala编译的插件,注意版本,不同的版本可能会出现不匹配的问题,这里maven打包的插件用的是maven-shade-plugin插件,mainClass里面设置主方法的包名.类名,你可以指定具体的某一个,也可以不指定,直接写一个*,这样打完包后就可以调用项目里面所有的方法.excludes里面可以过滤掉不需要的jar包,根据自己的需要进行过滤.
然后直接执行mvn package 即可,因为我们 goal生命周期 package 加入了shade 里面了 ,所以会执行compile 编译java 以及 scala 然后使用shade 打包 。如下图所示
点击package就可以了,打完包后,会在项目的target目录下面生成依赖包
这样就可以随意运行项目里面的java类和scala类了,java和scala之间的相互调用也不会报找不到jar包了.