我正在编写一个spark程序,它根据maven运行的环境从maven下载不同的jar,每个jar都适用于不同版本的hadoop发行版(例如cdh、hdp、mapr)。这是必要的,因为hdfs和yarn的一些低级api在这些发行版之间不共享。但是,我找不到任何hdfs和yarn的公共api来说明它们的版本。有没有可能只用java来实现呢?或者我必须运行一个外壳才能知道它?
6tqwzwtp1#
在java org.apache.hadoop.util.versioninfo.getversion()中应该可以工作。https://hadoop.apache.org/docs/current/api/org/apache/hadoop/util/versioninfo.html对于CLI,您可以使用:
$ hadoop version $ hdfs version $ yarn version
1条答案
按热度按时间6tqwzwtp1#
在java org.apache.hadoop.util.versioninfo.getversion()中应该可以工作。
https://hadoop.apache.org/docs/current/api/org/apache/hadoop/util/versioninfo.html
对于CLI,您可以使用: