java.lang.unsupportedclassversionerror不支持的主版本次版本51.0 rhdfs

txu3uszq  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(454)

我知道这和编译和运行时java版本之间的差异有关,但我认为我已经正确设置了所有的环境变量,所以我不知道这仍然是导致这个问题的原因。

$ java -version
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
$ javac -version
java 1.7.0_79
$ echo $JAVA_HOME
/Library/Java/JavaVirtualMachines/jdk1.7.0_79.jdk/Contents/Home
$ hadoop version
Hadoop 2.7.1

在rstudio,我有

> Sys.getenv("JAVA_HOME")
[1] "/Library/Java/JavaVirtualMachines/jdk1.7.0_79.jdk/Contents/Home"
> library(rhdfs)
Loading required package: rJava

HADOOP_CMD=/usr/local/Cellar/hadoop/2.7.1/bin/hadoop

Be sure to run hdfs.init()
Warning message:
package ‘rJava’ was built under R version 3.1.3 
> hdfs.init()
Error in .jnew("org/apache/hadoop/conf/Configuration") : 
  java.lang.UnsupportedClassVersionError: org/apache/hadoop/conf/Configuration : Unsupported major.minor version 51.0

我还将hadoop的hadoop-env.sh中的$javau home设置为1.7.0

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_79.jdk/Contents/Home

如果有人能指出这是怎么回事,我将不胜感激。

dnph8jn4

dnph8jn41#

毫无疑问,您已经四处搜索,发现java“主要”版本51是1.7,所以很接近。
对我来说,唯一清楚的方法就是仔细检查类文件-- org.apache.hadoop.conf.Configuration . 下面是类文件的开始定义。注意 minor_version 以及 major_version 分别是第2和第3个字段。这将告诉您编译类的依据,因此您需要执行的最小运行时。

struct Class_File_Format {
   u4 magic_number;

   u2 minor_version;   
   u2 major_version;

   u2 constant_pool_count;   

   cp_info constant_pool[constant_pool_count - 1];

   u2 access_flags;

相关问题