根据我读到的内容,您可以在没有hadoop或hdfs的情况下运行hive(比如在使用spark或tez的情况下),即通过设置 fs.default.name
以及 hive.metastore.warehouse.dir
到本地路径。但是,当我这样做时,我得到一个错误:
Starting Hive metastore service.
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path
我的hive-site.xml文件:
<property>
<name>mapred.job.tracker</name>
<value>local</value>
</property>
<property>
<name>hive.metastore.schema.verification/name>
<value>false</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>file:///tmp/hive/warehouse</value>
</property>
<property>
<name>fs.default.name</name>
<value>file:///tmp/hive</value>
</property>
这是否意味着我仍然需要下载所有hadoop二进制文件并将hadoop\u home设置为该路径?或者hive中的本地模式是否允许我在不需要所有这些内容的情况下运行?
1条答案
按热度按时间acruukt91#
hive不需要hdfs或yarn来执行,但是它仍然需要hadoop输入/输出格式,比如spark