如何在Spark SQL中选择昨天的日期作为Unix日期格式的日期?

qyyhg6bp  于 2022-09-21  发布在  Spark
关注(0)|答案(1)|浏览(406)

如何在Spark SQL中选择昨天的日期作为Unix日期格式的日期?示例:SELECTFROMWHERE DATE in(DateinUnixFormat)

请帮帮忙。

bvhaajcl

bvhaajcl1#

假设您有一个名为test的表,您可以添加另一个名为yesterday的列,该列将昨天的日期作为Unix时间戳添加到:

spark.sql("select *,to_unix_timestamp(date_add(current_date(), -1),'yyyy-MM-dd') as yesterday from test")

最终输出:

+------------+----------+
|        test| yesterday|
+------------+----------+
|        test|1662588000|
+------------+----------+

祝好运!

相关问题