hive—hadoop上的两个独立表来自hdfs目录中的两个文件

hyrbngr7  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(269)

我正在尝试从一个hdfs目录构建两个hadoop表。
所以我想要一张table file1 从文件 1.tsv 还有一张table file2 从文件 2.tsv . 但两者都在一个hdfs目录中 /tmp/ip .


# create hdfs directory

hadoop fs -mkdir /tmp/ip

# put my two tsv files

hadoop fs -put /tmp/data/1.tsv tmp/ip/
hadoop fs -put /tmp/data/2.tsv tmp/ip/

现在在hive的cli中

--in Hive CLI to build table
CREATE EXTERNAL TABLE IF NOT EXISTS file1
(id STRING,Code STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE

-- failed solution because there's two files
LOCATION 'tmp/ip';

-- failed solution but don't understand why
LOAD DATA LOCAL INPATH 'tmp/ip/1.tsv' INTO TABLE file1
n3h0vuf2

n3h0vuf21#

关于失败的解决方案:
--解决方案失败,但不明白原因 LOAD DATA LOCAL INPATH 'tmp/ip/1.tsv' INTO TABLE file1 失败。
由于关键字错误,此操作失败 LOCAL . 配置单元正在本地文件系统上查找文件。你可以试着不用这个。

LOAD DATA INPATH 'tmp/ip/1.tsv' INTO table file1`

相关问题