hadoop dns解析

06odsfpq  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(719)

我正在尝试在vm上安装本地群集。当我打开cloudera manager时,有时主机运行状况检查显示为失败,错误消息基本上是“dns解析失败”。有时hdfs服务显示为失败。我只是想知道其他的解决方法。我相当肯定这是一些简单的主机文件或一些东西与dns。我的操作系统是ubuntu。
到目前为止,我已经编辑了/etc/hosts,以获得运行ifconfig得到的确切ipv4地址

10.2.0.15  michael-VirtualBox

我删除了条目 127.0.0.1 localhost 我还重新启动了网络服务。我执行了命令 "python -c "import socket; print socket.getfqdn(); print socket.gethostbyname(socket.getfqdn())"" 我回来了 127.0.0.1 localhost

ibps3vxo

ibps3vxo1#

hadoop非常依赖于能够执行主机名的正向和反向查找:
将主机名解析为ip(正向查找-dns a记录)
将ip解析为主机名(反向查找-dns ptr记录)
对于本地安装,我建议使用 /etc/hosts 因为该文件中的条目为每个条目提供正向和反向查找。群集中的所有节点必须能够解析群集中所有其他服务器的主机名,因此 /etc/hosts 每个服务器上的文件必须包含集群中每个vbox vm的所有ip->hostname条目。
hadoop看到的主机名是 hostname --fqdn 在服务器上。因此,你的 /etc/hosts 文件应包括 hostname 以及 hostname --fqdn 例如

127.0.0.1  localhost
10.2.0.15  server1 server1.example.com 
10.2.0.16  server2 server2.example.com 
10.2.0.17  server3 server3.example.com 
10.2.0.18  server4 server4.example.com

我猜你在用 host-only 每个节点和所有节点的网络配置都可以相互联系。
如果您使用的是cloudera,请确保重新启动 cloudera-scm-agent 在你改成 /etc/hosts

相关问题