我正在尝试从一个hdfs目录构建两个hadoop表。
所以我想要一张table file1
从文件 1.tsv
还有一张table file2
从文件 2.tsv
. 但两者都在一个hdfs目录中 /tmp/ip
.
# create hdfs directory
hadoop fs -mkdir /tmp/ip
# put my two tsv files
hadoop fs -put /tmp/data/1.tsv tmp/ip/
hadoop fs -put /tmp/data/2.tsv tmp/ip/
现在在hive的cli中
--in Hive CLI to build table
CREATE EXTERNAL TABLE IF NOT EXISTS file1
(id STRING,Code STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
-- failed solution because there's two files
LOCATION 'tmp/ip';
-- failed solution but don't understand why
LOAD DATA LOCAL INPATH 'tmp/ip/1.tsv' INTO TABLE file1
1条答案
按热度按时间n3h0vuf21#
关于失败的解决方案:
--解决方案失败,但不明白原因
LOAD DATA LOCAL INPATH 'tmp/ip/1.tsv' INTO TABLE file1
失败。由于关键字错误,此操作失败
LOCAL
. 配置单元正在本地文件系统上查找文件。你可以试着不用这个。