我想将hbase类路径添加到spark中,但在运行 hbase classpath
命令。
我在env中用java1.8在本地设置了hadoop3.2.0。
$hbase类路径
/usr/lib/hadoop/libexec/hadoop-functions.sh:第2364行:hadoop\u org.apache.hadoop.hbase.util.getjavaproperty\u用户:无效变量名/usr/lib/hadoop/libexec/hadoop-functions.sh:第2459行:hadoop\u org.apache.hadoop.hbase.util.getjavaproperty\u opts:无效变量名错误:找不到或加载主类org.apache.hadoop.hbase.util.getjavaproperty
暂无答案!
目前还没有任何答案,快来回答吧!