我已经在我的电脑多节点环境中安装了hadoop,如下所示
1:4个用ubuntu(14.04)加载的虚拟盒示例
2:1-主节点,2-从节点和剩余的vm示例作为客户端
注意:所有4个虚拟机都在我的电脑上运行
我能够在上面提到的安装程序上成功地完成apace-2.6hadoop安装程序。现在我想安装hive以便进行一些数据摘要、查询和分析。
但我不知道我该如何进一步。我有以下几个问题:
问题1:是否需要在所有节点(主/名称节点和从/数据节点)上安装/设置apache hive(0.14)?还是只在主节点上?
问题2:处理元存储应该使用什么模式?是本地模式还是远程模式?
问题3:如果我想使用mysql作为配置单元元存储,我应该在master/name节点上安装它,还是需要使用单独的客户机?
如果需要遵循任何步骤来配置metastore,请有人也和我分享一下吗?在多节点/伪分布式环境中。
br,圣
1条答案
按热度按时间lymgl2op1#
只需安装一次所需的配置单元服务(hiveserver2、metastore、webhcat)。在你的实验场景中,你可能会把它们放在主机上。然后,客户机可以运行beeline(hiveserver2客户机)
如果将metastore配置为local,则配置单元将使用本地derby数据库。同样,对于您的实验室设置,这可能正是您需要/想要的。
在生产场景中,您将
为支持不应与namenode进程争用资源的服务设置专用服务器
并为metastore数据库使用专用的数据库服务器,该数据库将是远程的。