java 11的spark

u4vypkhs  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(575)

Spark2.x在用于Java11时给出了以下错误
线程“main”java.lang.illegalargumentexception中出现异常:不支持的类文件主版本55
spark 3.0与Java11有这种兼容性吗?
使用Java11和spark还有其他解决方法吗?

csga3l58

csga3l581#

来自spark 3文档:
spark运行在Java8/11、Scala2.12、Python2.7+/3.4+和R3.1+上。从spark 3.0.0开始,不推荐使用8u92版本之前的java 8支持。从spark 3.0.0开始,python 2和python 3 3.6之前的版本不支持。从spark 3.0.0开始,3.4版之前的r支持已被弃用。对于ScalaAPI,Spark3.0.0使用Scala2.12。您需要使用兼容的scala版本(2.12.x)。
所以Spark3.x可以和java11一起工作,Spark2.x不能像这个答案中指出的那样工作。

相关问题