我有一组列名称,需要在现有的dataframe中添加这些列,这些列的大小也非常大,我需要使用stringtype和默认空值将所有列从set添加到dataframe。我遵循下面的方法,但我发现当列数和Dataframe大小很大时,这会影响我的性能。有没有更好的方法来解决这个问题?注:列数:~500
import sparkSession.sqlContext.implicits._
var df = Seq(
(1, "James"),
(2, "Michael"),
(3, "Robert"),
(4, "Washington"),
(5, "Jefferson")
).toDF("Id", "Name")
df.show(false)
val diff_set = Seq("col1", "col2", "col3", "col4", "col5", "col6", "col7", "col8", "col9", "col10", "col11", "col12", "col13", "col14", "col15", "col16", "col17", "col18", "col19", "col20", "col21", "col22").toSet
diff_set.foreach(x => {
if (x.size > 0) {
df = df.withColumn(x, lit(null)).withColumn(x, col(x).cast(StringType))
}
})
df.show(false)
+---+----------+
|Id |Name |
+---+----------+
|1 |James |
|2 |Michael |
|3 |Robert |
|4 |Washington|
|5 |Jefferson |
+---+----------+
+---+----------+----+----+----+-----+----+-----+----+-----+-----+-----+-----+----+-----+----+----+-----+-----+-----+-----+-----+----+-----+
|Id |Name |col7|col8|col3|col17|col6|col20|col2|col14|col16|col21|col15|col9|col10|col5|col1|col13|col19|col11|col22|col18|col4|col12|
+---+----------+----+----+----+-----+----+-----+----+-----+-----+-----+-----+----+-----+----+----+-----+-----+-----+-----+-----+----+-----+
|1 |James |null|null|null|null |null|null |null|null |null |null |null |null|null |null|null|null |null |null |null |null |null|null |
|2 |Michael |null|null|null|null |null|null |null|null |null |null |null |null|null |null|null|null |null |null |null |null |null|null |
|3 |Robert |null|null|null|null |null|null |null|null |null |null |null |null|null |null|null|null |null |null |null |null |null|null |
|4 |Washington|null|null|null|null |null|null |null|null |null |null |null |null|null |null|null|null |null |null |null |null |null|null |
|5 |Jefferson |null|null|null|null |null|null |null|null |null |null |null |null|null |null|null|null |null |null |null |null |null|null |
+---+----------+----+----+----+-----+----+-----+----+-----+-----+-----+-----+----+-----+----+----+-----+-----+-----+-----+-----+----+-----+
2条答案
按热度按时间n7taea2i1#
使用
select
```df
.select(
df.columns.map(c => col(c).as(c)) ++
diff_set.map(c => lit(null).cast("string").as(c)):_*
)
.show(false)
比较
使用
foldLeft
为了1000000
记录-所用时间:18017 ms使用
crossJoin
为了1000000
记录-所用时间:13224 ms使用
select
为了1000000
记录-所用时间:8519 ms8i9zcol22#
所以这是在Pypark。
如果您了解如何用map替换scala中的列表理解,那么这个逻辑将转换为scalaspark。
这比foldleft那样在迭代中添加22列更快,因为它一次创建22列来执行。