我已经安装了rstudio的r版本3.3.1和apachespark版本2.0.0,并且成功地将rstudio与spark连接起来。当我使用“df<-as.dataframe(family)”创建一个sparkDataframe时,它显示了以下错误,我尝试了另一个示例“df<-read.json(“examples/src/main/resources/people.json”)”也显示了相同的错误[1
我的代码
Sys.setenv(SPARK_HOME = "C:/Apache/spark-2.0.0-bin-hadoop2.7")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"),"R","lib"), .libPaths()))
library(SparkR)
sparkR.session(appName = "MyApp")
**df <- as.DataFrame(faithful)**// Shows Error
请帮我解决这个问题
暂无答案!
目前还没有任何答案,快来回答吧!