pyspark在jupyter笔记本问题上的设置

xfb7svmp  于 2021-05-26  发布在  Spark
关注(0)|答案(0)|浏览(384)

我用macos。我conda安装了pyspark,conda安装了findspark,然后我得到了这个错误。我按照在线教程安装了JavaVersion15。为了解决这个问题,我还安装了findspark。但是,它不起作用:(
代码如下:

import pyspark as ps
   spark = ps.sql.SparkSession.builder \
   .master('local[4]') \
   .appName('spark-lecture') \
   .getOrCreate()

sc = spark.sparkContext

错误如下:
我试图找到解决方案并更新bash,但它不起作用:
导出pyspark\u python=/usr/bin/python
导出pyspark驱动程序python=/usr/bin/python

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题