我在google计算引擎上部署了一个带有bdutil的hadoop集群。
我的配置
-操作系统:ubuntu 14
-Spark:1.5
-Hive:0.12
-1个主节点和2个工作节点
配置单元元存储配置:
我将hive-site.xml从hive复制到$spark\u home/conf/hive-site.xml(仅在主节点上)
当我尝试在pyspark shell中使用hivecontext时,收到以下消息错误:
...
有人知道怎么了吗?
先谢谢你
我在google计算引擎上部署了一个带有bdutil的hadoop集群。
我的配置
-操作系统:ubuntu 14
-Spark:1.5
-Hive:0.12
-1个主节点和2个工作节点
配置单元元存储配置:
我将hive-site.xml从hive复制到$spark\u home/conf/hive-site.xml(仅在主节点上)
当我尝试在pyspark shell中使用hivecontext时,收到以下消息错误:
...
有人知道怎么了吗?
先谢谢你
暂无答案!
目前还没有任何答案,快来回答吧!