在sparkscala中从终端添加外部库

z0qdvdin  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(371)

我正在尝试为spark添加外部库,因为我已经尝试将这些库放到spark中 /usr/lib/spark/lib . 在运行代码时成功添加库之后,出现错误:notfound。我不知道还能把jar文件放在哪里,我使用的是cdh5.7.0

t98cgbkg

t98cgbkg1#

我找到解决办法后,挖了一点,我修复了这个问题,增加了jar,同时打开Spark壳从终端。
我使用了以下代码:

spark-shell --jars "dddd-xxx-2.2.jar,xxx-examples-2.2.jar"

相关问题