如何通过nfs网关挂载特定的hadoop文件夹

6jygbczu  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(493)

我正在尝试为我的hadoop集群设置一个nfs网关,遵循本指南中提到的步骤。我是按照这里的步骤来的。我能登上 / 使用文件中提到的命令:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/ $mount_point

但我想在我的hdfs中挂载一个文件夹,如下所示:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/$dir $mount_point

但mount命令会产生以下错误:
mount.nfs:mounting 10.33.37.220:/dir失败,服务器给出的原因:
没有这样的文件或目录
在nfs网关中,将显示以下日志:
18/04/05 15:14:43 info mount.rpcprogrammountd:路径/目录未共享。
我还尝试添加以下行 /etc/exports ```
saurabh@0001:~$ cat /etc/exports
/whatsappData 10.0.0.0/24(rw,sync)

如何做到这一点。
wnavrhmk

wnavrhmk1#

在hadoop文档中,我发现有一个配置导出点: nfs.export.point 这可以指定hdfs的nfs导出点。只支持一个导出点。配置导出点时需要完整路径。默认情况下,导出点是根目录 / .
下面的设置解决了我的问题:

<property>
  <name>nfs.export.point</name>
  <value>/dir</value>
</property>

相关问题