spark-on-yarn与jdk8

aemubtdh  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(417)

我正在hadoopyarn上运行一个spark作业(hadoop2.7.0,但也尝试了2.4.0,都是在我的盒子上使用apachehadoopwebsite和spark1.3.1下载的)。我的spark工作在scala中,但包含用jdk8编译的类。
当我在jdk8上运行hadoop时

INFO yarn.Client: 
 client token: N/A
 diagnostics: Shutdown hook called before final status was reported.
 ApplicationMaster host: kostas-pc
 ApplicationMaster RPC port: 0
 queue: default
 start time: 1431513335001
 final status: SUCCEEDED

即使作业被标记为succeeded,由于“在报告最终状态之前调用了shutdown hook”,它实际上什么也没做。实际上,从我的spark工作中看不到日志记录。
当我将运行hadoop的jdk切换到jdk7时,我的作业开始运行,我可以看到scala代码中的日志条目,但是当它到达用jdk8编译的代码时,它失败了,出现了不兼容的类错误(如预期的那样)。
因此,运行hadoop+spark与jdk8似乎不兼容。有什么解决办法吗?
谢谢

zzwlnbp8

zzwlnbp81#

似乎spark 1.4.0可以与jdk8配合使用

相关问题