例如,如果给定的日期是2020-10-01,它需要返回两行sunday_dates, saturday_dates,其中包含该日期 "2020-10-01 "之后的所有周日和周六的值。
我试过这样的方法,但是,似乎对我不起作用。
spark.sql("select date_sub('2020-10-01', cast(date_format(current_date(),'u')%7 as int)) as sunday_dates").show(10,False)
+------------+
|sunday_dates|
+------------+
|2020-09-29 |
+------------+
在hive或pyspark中有没有什么方法可以实现这一点。
谢谢!
1条答案
按热度按时间x7yiwoj41#
你需要使用
date_trunc()
来达到一周的开始日期,然后再使用date_sub()
和date_sub()
来获得周六和周日的日期。在此创建dataframe。
input
output