我正在尝试在gcp上下文中测试spark hbase连接器,并尝试按照要求本地打包连接器的说明进行操作,在上提交作业时出现以下错误 Dataproc
(完成这些步骤后)。
命令
(base) gcloud dataproc jobs submit spark --cluster $SPARK_CLUSTER --class com.example.bigtable.spark.shc.BigtableSource --jars target/scala-2.11/cloud-bigtable-dataproc-spark-shc-assembly-0.1.jar --region us-east1 -- $BIGTABLE_TABLE
错误
线程“main”java.lang.noclassdeffounderror中出现异常:org/apache/hadoop/hbase/hbaseconfiguration
1条答案
按热度按时间vzgqcmou1#
我找到了一个可行的方法,在
build.sbt
-感谢@jccampanero的指导!输出(
Bigtablesource.scala
)