我正在尝试为spark添加外部库,因为我已经尝试将这些库放到spark中 /usr/lib/spark/lib . 在运行代码时成功添加库之后,出现错误:notfound。我不知道还能把jar文件放在哪里,我使用的是cdh5.7.0
/usr/lib/spark/lib
t98cgbkg1#
我找到解决办法后,挖了一点,我修复了这个问题,增加了jar,同时打开Spark壳从终端。我使用了以下代码:
spark-shell --jars "dddd-xxx-2.2.jar,xxx-examples-2.2.jar"
1条答案
按热度按时间t98cgbkg1#
我找到解决办法后,挖了一点,我修复了这个问题,增加了jar,同时打开Spark壳从终端。
我使用了以下代码: