我用macos。我conda安装了pyspark,conda安装了findspark,然后我得到了这个错误。我按照在线教程安装了JavaVersion15。为了解决这个问题,我还安装了findspark。但是,它不起作用:(
代码如下:
import pyspark as ps
spark = ps.sql.SparkSession.builder \
.master('local[4]') \
.appName('spark-lecture') \
.getOrCreate()
sc = spark.sparkContext
错误如下:
我试图找到解决方案并更新bash,但它不起作用:
导出pyspark\u python=/usr/bin/python
导出pyspark驱动程序python=/usr/bin/python
暂无答案!
目前还没有任何答案,快来回答吧!