spark shell启动错误/tmp/hive不可写

polhcujo  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(440)

我已经在windows box上安装了scala、spark、sbt和winutils。还适当配置了java\u home、spark\u home、scala\u home、sbt\u home。不过,当我尝试运行“Spark壳”,我遇到了一个非常常见的问题,我看到许多人都面临着。我尝试过通过winutils和windows资源管理器访问c:/tmp/hive目录。但同样的问题。如果有人能告诉我还缺什么我会很感激的?版本:spark:2.1.1 scala:2.11以下是截图链接:https://filedropper.com/filemanager/public.php?service=files&t=b5cc12549b9ae19ff969c65cb952c135
https://filedropper.com/filemanager/public.php?service=files&t=cb5b9b8f14980963be6f0a6511f71455
https://filedropper.com/filemanager/public.php?service=files&t=a2d471abfe57ca020a700c226b906faf
谢谢你的帮助!谢谢,曼尼什

llmtgqce

llmtgqce1#

谢谢蟋蟀007和杰切克。谢谢你的评论。结果发现与winutils的版本兼容性有问题。必须尝试几个版本,直到正确的版本更改了/tmp/hive上的权限

相关问题