我试图建立一个spark docker独立集群,分别有一个主容器和从容器,所以我总共创建了3个这样的图像
Spark控制
Spark从动装置
spark提交
因此,我使用一个数据存储容器,在构建主目录和从目录时挂载本地目录
下面是用于构建与数据存储连接的主容器的命令
sudo docker images
data_ubuntu
现在通过挂载带有数据的本地目录来构建spark master
sudo docker run -d -p 8080:8080 -p 7077:7077 --volumes-from /home/ubuntu:/data data_ubuntu --name master hello/spark-master
也试过其他方法
sudo docker create --name master hello/spark-master --privileged -v /home/ubuntu:/data -i -t data_ubuntu /bin/bash
上面的命令返回success hash,但是当我运行
docker ps
或
docker ps -a
在上述两种情况下,容器都没有运行,状态显示exited
我需要为spark从属节点挂载相同的目录,并且需要使用spark submit通过调用挂载的目录来执行作业
不明白这里出了什么问题。。
感谢你的帮助?
谢谢
暂无答案!
目前还没有任何答案,快来回答吧!