docker容器(spark容器)在装入本地卷后未运行?

j2datikz  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(447)

我试图建立一个spark docker独立集群,分别有一个主容器和从容器,所以我总共创建了3个这样的图像
Spark控制
Spark从动装置
spark提交
因此,我使用一个数据存储容器,在构建主目录和从目录时挂载本地目录
下面是用于构建与数据存储连接的主容器的命令

sudo docker images
data_ubuntu

现在通过挂载带有数据的本地目录来构建spark master

sudo docker run -d -p 8080:8080 -p 7077:7077 --volumes-from /home/ubuntu:/data data_ubuntu --name master hello/spark-master

也试过其他方法

sudo docker create --name master hello/spark-master --privileged -v /home/ubuntu:/data -i -t data_ubuntu /bin/bash

上面的命令返回success hash,但是当我运行

docker ps

docker ps -a

在上述两种情况下,容器都没有运行,状态显示exited
我需要为spark从属节点挂载相同的目录,并且需要使用spark submit通过调用挂载的目录来执行作业
不明白这里出了什么问题。。
感谢你的帮助?
谢谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题