在rstudio中创建sparkDataframe

aiazj4mn  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(266)

我已经安装了rstudio的r版本3.3.1和apachespark版本2.0.0,并且成功地将rstudio与spark连接起来。当我使用“df<-as.dataframe(family)”创建一个sparkDataframe时,它显示了以下错误,我尝试了另一个示例“df<-read.json(“examples/src/main/resources/people.json”)”也显示了相同的错误[1
我的代码

Sys.setenv(SPARK_HOME = "C:/Apache/spark-2.0.0-bin-hadoop2.7")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"),"R","lib"), .libPaths()))
library(SparkR)
sparkR.session(appName = "MyApp")

**df <- as.DataFrame(faithful)**// Shows Error


请帮我解决这个问题

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题