我正在运行一个作业,使用spark/scala将kafka中的数据提取到hbase中。jar的创建没有错误,但是运行spark提交作业时出错,请帮助我。
线程“main”java.lang.noclassdeffounderror中出现异常:org/apache/hadoop/hbase/client/put
def load(gigi: DigiTbl, recordNum: Int, logEvery: Int): Put = {
val rowKey = String.format("%s:%s", c1 c2)
val put = new Put(Bytes.toBytes(rowKey))
put.addColumn(columnFamily, Bytes.toBytes("c1"), Bytes.toBytes(digi.channel))
if (recordNum % logEvery == 0) {
LOG.info("Digital input: " + digi.toString)
LOG.info("Put output: " + put.toJSON)
}
put
}
暂无答案!
目前还没有任何答案,快来回答吧!