如何将jupyter/all spark笔记本容器与docker中的hadoop多节点集群连接

9rnv2umw  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(243)

请注意,我是这方面的新手。我的要求是在docker中设置hadoop多节点集群,并在其上运行spark和hive。
我使用uhopper/hadoop映像和jupyter笔记本创建了一个hadoop多节点集群,以访问我使用pyspark在hdfs中摄取的txt文件。现在jupyter在一个单独的容器中,hadoop集群在其他容器中,我如何告诉jupyter笔记本在现有的hadoop集群上运行?
请提出更好的方法来满足我的要求。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题