我刚刚开始使用hadoop。我看到spark是一个声称比mapreduce更快的执行引擎,因此我想试试它。据我所知,mapreduce也是一个执行引擎。那么为什么spark可以选择下载为MapReduce4.x构建的spark呢?我的意思是我不明白这两个是怎么放在一起的?任何帮助都将不胜感激!谢谢!
pkln4tw61#
为什么spark可以选择下载为mapreduce 4.x构建的spark?没有。它可以选择下载为mapr4.x构建的spark。mapr是一家开发hadoop发行版的公司。这与hadoop的mapreduce处理框架完全无关。
1条答案
按热度按时间pkln4tw61#
为什么spark可以选择下载为mapreduce 4.x构建的spark?
没有。它可以选择下载为mapr4.x构建的spark。mapr是一家开发hadoop发行版的公司。这与hadoop的mapreduce处理框架完全无关。