当我尝试初始化pyspark shell时,python似乎有一些问题,这个错误是pyspark独有的,在初始化spark或sparkr shell时不会发生。
这是spark shell打开的截图没问题,可执行文件位于同一个文件夹中。
有人知道除了python之外,spark为什么会启动其他api吗?我不清楚是否需要用java配置一些东西。谢谢您!下面是我的系统变量。
java\u主页:c:\jdk
hadoop\u主页:c:\winutils
spark\u主页:c:\spark
java版本1.8.0\u 261
spark版本3.0
操作系统:windows 10 pro
暂无答案!
目前还没有任何答案,快来回答吧!