我们正在运行spark streaming从Kafka那里获取信息。现在我们尝试使用phoenix jdbc从hbase中提取一些数据。当我在本地运行代码时,它运行良好,没有任何问题,但是当我使用yarn cluster运行代码时,它抛出下面的异常。
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.ipc.controller.ClientRpcControllerFactory
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:190)
下面是代码段:
def check(arg0:String,arg1:String)
{
val query = "query"
Class.forName("org.apache.phoenix.jdbc.PhoenixDriver");
var conn = DriverManager.getConnection("jdbc:phoenix:IP:zkport:/znode");
val statement = conn.createStatement()
val resultSet = statement.executeQuery(query)
var out="";
while(resultSet.next())
{
out=resultSet.getString("..")
}
}
添加了sbt依赖项
libraryDependencies += "org.apache.phoenix" % "phoenix-core" % "4.5.1-HBase-1.0"
我手动检查了丢失的类,它就在phoenix core jar中。Yarn/Spark引发异常的原因是什么。ApachePhoenix(4.3.1和4.4.0-hbase-0.98)在Spark1.3.1ClassNotFoundException上也报告了同样的问题,但我尝试将其添加为一个单独的类路径,但也不起作用。有人能帮我解决这个问题吗
1条答案
按热度按时间t5zmwmid1#
将phoenix core添加到classpath.txt是有效的。但这是个奇怪的问题。