我正在学习如何将r连接到hadoop。以下是我的环境设置:
r码:
R version 3.4.1 (2017-06-30)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows >= 8 x64 (build 9200)
hadoop:
running on another server
Linux Red Hat Enterprise
我已安装 rhdfs
尝试加载,但出现了以下错误:
> require(rhdfs)
Loading required package: rhdfs
Loading required package: rJava
Error: package or namespace load failed for ‘rhdfs’:
.onLoad failed in loadNamespace() for 'rhdfs', details:
call: fun(libname, pkgname)
error: Environment variable HADOOP_CMD must be set before loading package rhdfs
我在stackoverflow周围找了找,发现我必须出发了 HADOOP_CMD
env变量。但是 HADOOP_CMD
env var的设置通常类似于“/path/to/bin/hadoop”。
好像是这样 HADOOP_CMD
请参阅同一机器中的路径。如果我的hadoop在另一台机器上呢?如何指定 HADOOP_CMD
变量?
暂无答案!
目前还没有任何答案,快来回答吧!