spark2.3.0-bin-without-hadoop,docker-image-tool.sh缺少hadoop jars

ldioqlga  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(473)

我试图构建spark容器映像,以便在kubernetes中部署,并怀疑我做错了。运行映像时出现以下错误:

/opt/spark/conf/spark-env.sh: line 72: /home/me/hadoop_s3/bin/hadoop: No such file or directory
Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/Logger
    at java.lang.Class.getDeclaredMethods0(Native Method)
    at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)
    at java.lang.Class.privateGetMethodRecursive(Class.java:3048)
    at java.lang.Class.getMethod0(Class.java:3018)
    at java.lang.Class.getMethod(Class.java:1784)
    at sun.launcher.LauncherHelper.validateMainClass(LauncherHelper.java:544)
    at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:526)
Caused by: java.lang.ClassNotFoundException: org.slf4j.Logger
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 7 more

以上内容来自于检查失败的k8s pod中init容器的失败日志。请注意,第一行显示了我的错误-容器中的spark-env.sh引用的是容器中不存在的hadoop位置。
因为我使用的是“没有hadoop”版本的spark,所以hadoopjar似乎没有打包在docker-image-tool.sh构建的容器中。
从我对那个脚本的天真的观察中,我看不出它实际上是怎么工作的。
我的问题-
是否有其他步骤来构建包含外部hadoopjar的映像?
使用不带hadoop的构建创建spark容器映像是否可以工作,或者这是已知的限制?

1qczuiv0

1qczuiv01#

将hadoop库jar添加到spark类路径可以解决这个问题。但这之后你可能会面临其他错误。spark使用了许多hadoop库。使用用hadoop构建的spark而不是没有hadoop的spark。spark with hadoop包含所有hadoop依赖项jar。

相关问题