这是第三天尝试安装spark。我正在安装这个监护室的Spark。我确实看了一篇类似的帖子,但是没有找到解决方案,所以在spark下载之前,再问一次问题不会出错。
env info:vmware工作站上的ubuntu 20
spark版本:spark-3.0.1.tgz
scala版本:scala-2.11.7.tgz
在“spark构建步骤”期间,抛出的错误是bash:sbt/sbt没有这样的文件或目录
从oliverped对一条评论(thang nguyenchien)的回复中找到了一个解决方案。他的解决方案是:./build/sbt**,它成功了,并开始构建spark。但现在这个过程要求我做点什么。根据我的理解,它要求更新星火的位置。下面是我尝试执行./build/sbt期间抛出的错误。
暂无答案!
目前还没有任何答案,快来回答吧!