我有一个带有unix epoch timestamp列的cassandra表(值例如1599613045)。我想使用sparksqlcontext根据这个unix epoch timestamp列从这个表中选择from date to date。我打算将from date、to date输入转换为epoch timestamp,并将(>=&<=)与表epoch ts列进行比较。有可能吗?有什么建议吗?非常感谢!
我有一个带有unix epoch timestamp列的cassandra表(值例如1599613045)。我想使用sparksqlcontext根据这个unix epoch timestamp列从这个表中选择from date to date。我打算将from date、to date输入转换为epoch timestamp,并将(>=&<=)与表epoch ts列进行比较。有可能吗?有什么建议吗?非常感谢!
1条答案
按热度按时间4smxwvx51#
遵循以下方法,
让我们考虑一下Cassandra正在竞选localhost:9042
键空间-->我的键空间
表格-->mytable
columnname-->时间戳
spark scala代码: