启动r jupyter笔记本上的spark时出现问题

dsekswqp  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(192)

我已经设置了环境变量,并使用

library(sparklyr)    
Sys.setenv(JAVA_HOME = "C:\\Program Files\\Java\\jdk-13.0.2\\")
Sys.setenv(SPARK_HOME ="C:\\Users\\gdiwa\\AppData\\Local\\spark")

当我运行这个命令时,我得到一个错误

sc <- spark_connect(master = "local")

system2(file.path(spark\u home,“bin”,“spark submit”),“--version”,:'“c:\users\gdiwa\appdata\local\spark/bin/spark submit”'中出错未找到回溯:
spark\u连接(master=“local”)
外壳连接(master=master,spark\u home=spark\u home,method=method。app\u name=app\u name,version=version,hadoop\u version=hadoop\u version。shell\u args=shell\u args,config=config,service=spark\u config\u value(配置。
“sparkyr.gateway.service”,false),remote=spark\u config\u value(config,.”sparkyr.gateway.remote“,spark\u master\u是\uYarn\u集群(master。config),extensions=extensions,batch=null。scala\u version=scala\u版本)
验证java版本(master,spark\u home)
spark\u版本\u from\u home(spark\u home)
版本尝试()
system2(file.path(spark\u home,“bin”,“spark submit”),“--版本”。stderr=真,stdout=真)

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题