默认情况下,hbase具有每行的时间戳值。在保存(插入)sparkDataframe中的记录时,如何通过spark scala代码更新hbase中自己的时间戳值?
例如,
create 'test', 'cf'
put 'test', 'row1', 'cf:a', 'value1'
put 'test', 'row2', 'cf:b', 'value2'
put 'test', 'row3', 'cf:c', 'value3'
scan 'test'
ROW COLUMN+CELL
row1 column=cf:a, timestamp=1288380727188, value=value1
row2 column=cf:b, timestamp=1288380738440, value=value2
row3 column=cf:c, timestamp=1288380747365, value=value3
如何根据Dataframe更新时间戳?
1条答案
按热度按时间hgtggwj01#
您可以添加要在末尾添加long的时间戳:put'test'、'row1'、'cf:a'、'value1、1111
如果要更新时间戳,只需再次添加相同的数据(如果版本为1,但这是另一个问题)