如何在Spark SQL中选择昨天的日期作为Unix日期格式的日期?示例:SELECTFROMWHERE DATE in(DateinUnixFormat)
请帮帮忙。
bvhaajcl1#
假设您有一个名为test的表,您可以添加另一个名为yesterday的列,该列将昨天的日期作为Unix时间戳添加到:
test
yesterday
spark.sql("select *,to_unix_timestamp(date_add(current_date(), -1),'yyyy-MM-dd') as yesterday from test")
最终输出:
+------------+----------+ | test| yesterday| +------------+----------+ | test|1662588000| +------------+----------+
祝好运!
1条答案
按热度按时间bvhaajcl1#
假设您有一个名为
test
的表,您可以添加另一个名为yesterday
的列,该列将昨天的日期作为Unix时间戳添加到:最终输出:
祝好运!