hive 2.3.2本地模式找不到hadoop安装

bq9c1y66  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(407)

根据我读到的内容,您可以在没有hadoop或hdfs的情况下运行hive(比如在使用spark或tez的情况下),即通过设置 fs.default.name 以及 hive.metastore.warehouse.dir 到本地路径。但是,当我这样做时,我得到一个错误:

Starting Hive metastore service.
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path

我的hive-site.xml文件:

<property>
  <name>mapred.job.tracker</name>
  <value>local</value>
</property>
<property>
  <name>hive.metastore.schema.verification/name>
  <value>false</value>
</property>
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>file:///tmp/hive/warehouse</value>
</property>
<property>
  <name>fs.default.name</name>
  <value>file:///tmp/hive</value>
</property>

这是否意味着我仍然需要下载所有hadoop二进制文件并将hadoop\u home设置为该路径?或者hive中的本地模式是否允许我在不需要所有这些内容的情况下运行?

acruukt9

acruukt91#

hive不需要hdfs或yarn来执行,但是它仍然需要hadoop输入/输出格式,比如spark

相关问题