我正在尝试安装apache shark。其中一个要求是安装hdfs。我不想用Yarn或细棉纱。我只想要hdfs。我的问题是:这是否意味着我只能安装2.x之前的hadoop发行版?如果是,哪一个?或者我可以使用hadoop2.4并以某种方式禁用yarn吗?我真的不知道怎么做。我能找到的所有教程似乎都用Yarn。有人对如何在2.x中使用hdfs有什么建议吗?如果只想安装hdfs,我需要哪个hadoop发行版?
hgtggwj01#
要使用shark,您需要安装:存储数据的hdfsHive内存使用的sparkYarn不是强制性的
1条答案
按热度按时间hgtggwj01#
要使用shark,您需要安装:
存储数据的hdfs
Hive
内存使用的spark
Yarn不是强制性的