问题陈述:我在hdfs上有大约400列的源数据,其中大约200列(我称之为var1..200)有可选的数据。有些行可能有v1..10的数据,有些行可能有v34..78的数据,依此类推。我需要读取这些数据,并将它们分为2个文件(或表格,如果你愿意)。表a将包含其他200列,表b将包含关于表a中行的var1..200列的信息。例如,如果表a中的一行有var1..20列的数据,那么表b应该有20行,每个行对应var1..20,以及链接表的列。所以,本质上我需要检查源数据集的var1..200列,然后如果其中任何一个var有值,我需要在表b中创建一个条目。
在源数据中,这些var1..200列成组出现,即var1..50一起放在文件中,然后在一些其他列之后,var51..100一起存储等。
我必须使用hiveql、spark-core或spark-sql来实现这一点,最好是spark解决方案。
我想到的方法是使用spark core,通过索引读取var1..200,检查值,然后将其移动到不同的数据集。
我想知道如何最好地实施这样一个解决方案。请分享你的想法。谢谢。
1条答案
按热度按时间v1uwarro1#
演示