Spark2.x在用于Java11时给出了以下错误线程“main”java.lang.illegalargumentexception中出现异常:不支持的类文件主版本55spark 3.0与Java11有这种兼容性吗?使用Java11和spark还有其他解决方法吗?
csga3l581#
来自spark 3文档:spark运行在Java8/11、Scala2.12、Python2.7+/3.4+和R3.1+上。从spark 3.0.0开始,不推荐使用8u92版本之前的java 8支持。从spark 3.0.0开始,python 2和python 3 3.6之前的版本不支持。从spark 3.0.0开始,3.4版之前的r支持已被弃用。对于ScalaAPI,Spark3.0.0使用Scala2.12。您需要使用兼容的scala版本(2.12.x)。所以Spark3.x可以和java11一起工作,Spark2.x不能像这个答案中指出的那样工作。
1条答案
按热度按时间csga3l581#
来自spark 3文档:
spark运行在Java8/11、Scala2.12、Python2.7+/3.4+和R3.1+上。从spark 3.0.0开始,不推荐使用8u92版本之前的java 8支持。从spark 3.0.0开始,python 2和python 3 3.6之前的版本不支持。从spark 3.0.0开始,3.4版之前的r支持已被弃用。对于ScalaAPI,Spark3.0.0使用Scala2.12。您需要使用兼容的scala版本(2.12.x)。
所以Spark3.x可以和java11一起工作,Spark2.x不能像这个答案中指出的那样工作。