我对大数据、hadoop和linux还不熟悉。我们有一个小的4节点集群,1个主节点和3个节点,运行在ambari2.1和hadoop2.2.6上所有的机器都运行在ubuntu服务器12.04上。所有配置正确,工作正常。包括dns、ssh、ntp等。但是,当我尝试在此基础上安装hue 3.8.1时,请遵循以下指南:http://gethue.com/hadoop-hue-3-on-hdp-installation-tutorial/ 安装成功,我可以在浏览器中打开并登录。但它显示了3个错误配置:
文件系统根“/”应属于hdfs。
密钥应配置为随机字符串。重新启动时所有会话都将丢失。。。但我从未设置过kerberos或其他安全机制。
如果没有运行的livy spark服务器,这个应用程序将无法运行。
文件夹/home/user/hue和其中的所有内容都属于hdfs用户,属于hdfs组。当第一次登录到hue时,我已经创建了admin用户。我是否需要将此管理员用户添加到某个组,如果需要,添加到哪个组?此外,spark是作为ambari软件包的一部分安装和运行的。我需要单独安装livy spark还是它又是一些配置?!现在很困惑。。。我已经仔细检查了所有的配置文件,它看起来对我来说一切正常,任何帮助在哪里看,甚至方向在哪里挖掘。遵循《配置指南》中的所有步骤,并将其替换为正确的端口、主机和地址。你知道怎么回事吗?怎么开始?提前谢谢。
1条答案
按热度按时间mnowg1ta1#
警告hdfs的/path不属于默认的“hdfs”。如果主人是其他人,这是正常的,你可以在这里更新色调https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#l60
您应该在此处为“密钥”输入一个随机文本字符串https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#l21,这样就没人能破解你的用户密码了
如果您不使用spark应用程序,可能会忘记此警告http://gethue.com/spark-notebook-and-livy-rest-job-server-improvements/. 它需要livy spark服务器运行