apache phoenix 4.5.1和spark 1.3.1 classnotfoundexception

mhd8tkvw  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(313)

我们正在运行spark streaming从Kafka那里获取信息。现在我们尝试使用phoenix jdbc从hbase中提取一些数据。当我在本地运行代码时,它运行良好,没有任何问题,但是当我使用yarn cluster运行代码时,它抛出下面的异常。

Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.ipc.controller.ClientRpcControllerFactory
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
    at java.lang.Class.forName0(Native Method)
    at java.lang.Class.forName(Class.java:190)

下面是代码段:

def check(arg0:String,arg1:String)
{
  val query = "query"

        Class.forName("org.apache.phoenix.jdbc.PhoenixDriver");
    var conn =  DriverManager.getConnection("jdbc:phoenix:IP:zkport:/znode");
        val statement = conn.createStatement()
        val resultSet = statement.executeQuery(query)
        var out="";
        while(resultSet.next())
        {
          out=resultSet.getString("..")
        }
}

添加了sbt依赖项

libraryDependencies += "org.apache.phoenix" % "phoenix-core" % "4.5.1-HBase-1.0"

我手动检查了丢失的类,它就在phoenix core jar中。Yarn/Spark引发异常的原因是什么。ApachePhoenix(4.3.1和4.4.0-hbase-0.98)在Spark1.3.1ClassNotFoundException上也报告了同样的问题,但我尝试将其添加为一个单独的类路径,但也不起作用。有人能帮我解决这个问题吗

t5zmwmid

t5zmwmid1#

将phoenix core添加到classpath.txt是有效的。但这是个奇怪的问题。

相关问题