我正在hadoopyarn上运行一个spark作业(hadoop2.7.0,但也尝试了2.4.0,都是在我的盒子上使用apachehadoopwebsite和spark1.3.1下载的)。我的spark工作在scala中,但包含用jdk8编译的类。
当我在jdk8上运行hadoop时
INFO yarn.Client:
client token: N/A
diagnostics: Shutdown hook called before final status was reported.
ApplicationMaster host: kostas-pc
ApplicationMaster RPC port: 0
queue: default
start time: 1431513335001
final status: SUCCEEDED
即使作业被标记为succeeded,由于“在报告最终状态之前调用了shutdown hook”,它实际上什么也没做。实际上,从我的spark工作中看不到日志记录。
当我将运行hadoop的jdk切换到jdk7时,我的作业开始运行,我可以看到scala代码中的日志条目,但是当它到达用jdk8编译的代码时,它失败了,出现了不兼容的类错误(如预期的那样)。
因此,运行hadoop+spark与jdk8似乎不兼容。有什么解决办法吗?
谢谢
1条答案
按热度按时间zzwlnbp81#
似乎spark 1.4.0可以与jdk8配合使用