在sparksql中,可以使用 asc_nulls_last
在订货时,如
df.select('*').orderBy(column.asc_nulls_last).show
请参见在spark sql中更改空值顺序。
在Pypark你会怎么做?
我专门用它来做“窗口覆盖”之类的事情:
df = df.withColumn(
'rank',
row_number().over(Window.partitionBy('group_id').orderBy('datetime'))
)
在哪里 datetime
列可以是datetime或null。
我希望能用:
...orderBy(expr('column asc NULLS last'))
但是这个错误 Exception: mismatched input 'NULLS' expecting <EOF>
1条答案
按热度按时间bttbmeg01#