我有一个场景,传感器每100ms将收集到的信息传递到redis,数据存储格式是 redis-Stream
. Only**600**pieces of data
(即一分钟的数据)保存在redis数据库中。我需要使用python读取传感器收集的数据,并将其持久化到另一个数据库,例如 influxdb
.
因为redis数据库只存储600条数据,所以当达到临界值时,旧条目将自动被排除。如果设置为每分钟收集600条数据,则可能存在数据丢失问题,但设置较小的值可能会导致数据冗余。
有没有办法确保数据 not lost or redundant
?
如果你能告诉我怎么解决的话,我会很感激的?
暂无答案!
目前还没有任何答案,快来回答吧!