我需要给 HADOOP_CLASSPATH
环境变量,根据本文:https://docs.hortonworks.com/hdpdocuments/hdp2/hdp-2.3.2/bk_installing_manually_book/content/troubleshooting-phoenix.html
我打字的时候 echo $HADOOP_CLASSPATH
在控制台中,我得到一个空结果。我想我需要在config.xml文件中设置这些值。。。
在何处或如何将此新值设置为环境变量?
我能把它放进去吗 spark-submit
?
2条答案
按热度按时间yx2lnoni1#
您可以在spark-env.sh中添加环境变量hadoop\u conf\u dir,这样无论何时运行spark submit,它都会自动选择所有环境变量。此环境变量值是hadoop配置的路径。
export hadoop\u conf\u dir=将spark指向hadoop配置文件
qjp7pelc2#
通过将jar路径添加到
spark-submit
通过呼叫--driver-class-path
参数:通过设置
--conf
参数如下:让他们中的一个去做!
同时添加
--conf "spark.executor.extraClassPath=/usr/hdp/current/hbase-client/lib/hbase-protocol-1.1.2.2.4.2.0-258.jar"
给你的spark-submit
如果仍然出现异常(在执行器上启动代码时可能发生,而不是在主机上)