spark类路径

fhity93d  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(380)

对于在yarn(yarn客户机)上运行的spark作业,是否可以使用hdfs中的jar指定类路径
有点像map reduce的工作:

DistributedCache.addFileToClassPath(Path file, Configuration conf, FileSystem fs)
bihw5rsg

bihw5rsg1#

从sparkcontext文档:
def addjar(路径:string):单位
为将来在此sparkcontext上执行的所有任务添加jar依赖关系。传递的路径可以是本地文件、hdfs(或其他支持hadoop的文件系统)中的文件、http、https或ftpuri,或者每个工作节点上的文件的local:/path。
所以我认为在sparkcontext初始化中添加这个就足够了:

sc.addJar("hdfs://your/path/to/whatever.jar")

如果您只想添加一个文件,有一个相关的 addFile() 方法。
更多信息请参见文档。

相关问题