我有一个针对hdfs数据节点的docker swarm设置,如下所示(截断):
datanode:
image: bde2020/hadoop-datanode:2.0.0-hadoop2.7.4-java8
volumes:
- datanode:/hadoop/dfs/data
deploy:
mode: global
placement:
constraints: [ node.role == worker ]
volumes:
datanode:
每个datanode容器都有一个关联的datanode卷,该卷当前存储在/var/lib/docker/volumes(每个节点的本地)中。我可以访问一个更大(更快)的lustre文件系统,并试图了解如何在lustre文件系统上存储卷。
一种可能是将/var/lib/docker/volumes符号链接到/lustre/noden(其中n是物理节点号),但namenode似乎无法处理堆栈重新启动,因为数据可能会(可能)移动到另一个节点。
docker驱动器是否支持swarm中lustre文件系统上的docker卷?如果没有,团队如何为hdfs这样的系统管理docker卷数据持久性?
1条答案
按热度按时间2ekbmq321#
如果我没有误解你,恐怕不行,因为
driver: lustre
或者,docker配置不存在与docker配置相同的方式nfs
,例如:因此,如果考虑以下模式,请尝试使用lustre graph driver
https://github.com/bacaldwell/lustre-graph-driver/blob/master/lustre-graph-driver.jpg
更多信息在光泽图驱动程序如何