在spark集群中提交作业时,apache hadoop连接拒绝本地主机

n9vozmp4  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(202)

我正在尝试安装apachespark和hadoop。然而,当试图提交一个Spark群集作业时,我得到了以下错误“连接被拒绝”localhost:54310". 我对这个很陌生。有人能告诉我如何设置客户端试图使用的正确hadoop端口/主机名并正确提交spark集群吗?非常感谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题