请注意,我是这方面的新手。我的要求是在docker中设置hadoop多节点集群,并在其上运行spark和hive。
我使用uhopper/hadoop映像和jupyter笔记本创建了一个hadoop多节点集群,以访问我使用pyspark在hdfs中摄取的txt文件。现在jupyter在一个单独的容器中,hadoop集群在其他容器中,我如何告诉jupyter笔记本在现有的hadoop集群上运行?
请提出更好的方法来满足我的要求。
请注意,我是这方面的新手。我的要求是在docker中设置hadoop多节点集群,并在其上运行spark和hive。
我使用uhopper/hadoop映像和jupyter笔记本创建了一个hadoop多节点集群,以访问我使用pyspark在hdfs中摄取的txt文件。现在jupyter在一个单独的容器中,hadoop集群在其他容器中,我如何告诉jupyter笔记本在现有的hadoop集群上运行?
请提出更好的方法来满足我的要求。
暂无答案!
目前还没有任何答案,快来回答吧!