我的代码是用jupyter笔记本内核在spark中分发的

dgenwo3n  于 2021-05-17  发布在  Spark
关注(0)|答案(1)|浏览(505)

我需要帮助,因为我不知道jupyter笔记本内核在spark集群中是否可用。
在我的地方Spark我用这个,我没有问题。
我将此内核用于pyspark:https://github.com/anchormen/pyspark-jupyter-kernels
我使用的是一个独立的spark集群,有三个节点,没有Yarn。
敬礼。

pxy2qtax

pxy2qtax1#

您可以使用带有python内核的主ip独立连接到spark集群。

import pyspark 
sc = pyspark.SparkContext(master='spark://<public-ip>:7077', appName='<your_app_name>')

参考文献
如何将jupyter笔记本连接到远程spark群集
建立apachespark集群并与jupyter笔记本集成
将应用程序从jupyter实验室部署到spark独立集群

相关问题