我一直在关注这篇关于如何使用hive分析twitter数据的文章:http://blog.cloudera.com/blog/2012/11/analyzing-twitter-data-with-hadoop-part-3-querying-semi-structured-data-with-hive/
我已经设置了flume来收集twitter数据并写入hdfs。我设置了一个hive表,它引用相同的hdfs位置。
当我从配置单元运行这样的命令时:select entities.user\u提到[0]。screen\u name from tweets;
我得到以下响应:好的,时间:0.16秒。
不管我运行什么查询,我都不会得到任何结果。
由于我是hive新手,我是希望在hive命令行中看到结果,还是必须从mysql中挖掘结果。mysql是metastoredb。
1条答案
按热度按时间yshpjwxd1#
当用目录对配置单元数据进行分区时,需要对其进行rapair以查看partition/partitions。因此,运行
msck repair table your_table_name
应该能解决你的问题。