PySpark df
:
+---------+----+----+----+----+----+----+----+----+----+
|partition| 1| 2| 3| 4| 5| 6| 7| 8| 9|
+---------+----+----+----+----+----+----+----+----+----+
| 7|null|null|null|null|null|null| 0.7|null|null|
| 1| 0.2| 0.1| 0.3|null|null|null|null|null|null|
| 8|null|null|null|null|null|null|null| 0.8|null|
| 4|null|null|null| 0.4| 0.5| 0.6|null|null| 0.9|
+---------+----+----+----+----+----+----+----+----+----+
我将其中的9个右列合并在一起:
+---------+--------------------+
|partition| vec_comb|
+---------+--------------------+
| 7| [,,,,,,,, 0.7]|
| 1|[,,,,,, 0.1, 0.2,...|
| 8| [,,,,,,,, 0.8]|
| 4|[,,,,, 0.4, 0.5, ...|
+---------+--------------------+
如何从vec_comb
列的数组中删除NullTypes
?
预期输出:
+---------+--------------------+
|partition| vec_comb|
+---------+--------------------+
| 7| [0.7]|
| 1| [0.1, 0.2,0.3]|
| 8| [0.8]|
| 4|[0.4, 0.5, 0.6, 0,9]|
+---------+--------------------+
我试过(显然是错的,但我无法理解):
def clean_vec(array):
new_Array = []
for element in array:
if type(element) == FloatType():
new_Array.append(element)
return new_Array
udf_clean_vec = F.udf(f=(lambda c: clean_vec(c)), returnType=ArrayType(FloatType()))
df = df.withColumn('vec_comb_cleaned', udf_clean_vec('vec_comb'))
3条答案
按热度按时间n3schb8v1#
Spark 3.4+
完整示例:
omtl5h9j2#
你可以使用高阶函数
filter
来删除null元素:你可以使用一个UDF,但它会更慢,例如。
zpgglvta3#
不使用特定于pyspark的特性,您也可以通过
filter
输出NaN
来创建list
:并通过仅选择所需的两个列来删除旧列: