我有一个pyspark数据框,有2列:“Date_ini”,“Days_to_add”。
在Date_ini中,我有一个日期,Days_to_add包含了我想加上Date_ini以获得Date_limit的天数。
我的代码是:
df = df.withColumn("Date_limit", expr("date_add(Date_ini,Days_to_add)")
字符串
我得到这个:
| 起始日期(_I)|添加天数|日期限制(_L)|
| --|--|--|
| 2023年10月11日09时03分47秒| 10 |2023年10月21日|
| 2023年10月16日15时08分53秒| 10 |2023年10月26日星期五|
| 2023年10月16日16时17分22秒| 6 |2023年10月22日|
但我想要的是:
| 起始日期(_I)|添加天数|日期限制(_L)|
| --|--|--|
| 2023年10月11日09时03分47秒| 10 |2023年10月21日09时03分47秒|
| 2023年10月16日15时08分53秒| 10 |2023年10月26日15时08分53秒|
| 2023年10月16日16时17分22秒| 6 |2023年10月22日16时17分22秒|
2条答案
按热度按时间mnemlml81#
你可以通过将
days_to_add
转换为DayTimeIntervalType
并直接添加它来避免unix时间戳的来回转换。字符串
z9ju0rcb2#
是的,最后我用这个工作:)
字符串