需要根据我的列本身的值(而不是默认时间戳)更新hbase中的时间戳

vh0rcniy  于 2021-06-09  发布在  Hbase
关注(0)|答案(1)|浏览(392)

默认情况下,hbase具有每行的时间戳值。在保存(插入)sparkDataframe中的记录时,如何通过spark scala代码更新hbase中自己的时间戳值?
例如,

create 'test', 'cf'

put 'test', 'row1', 'cf:a', 'value1'

put 'test', 'row2', 'cf:b', 'value2'

put 'test', 'row3', 'cf:c', 'value3'

scan 'test'

ROW COLUMN+CELL

row1 column=cf:a, timestamp=1288380727188, value=value1

row2 column=cf:b, timestamp=1288380738440, value=value2

row3 column=cf:c, timestamp=1288380747365, value=value3

如何根据Dataframe更新时间戳?

hgtggwj0

hgtggwj01#

您可以添加要在末尾添加long的时间戳:put'test'、'row1'、'cf:a'、'value1、1111
如果要更新时间戳,只需再次添加相同的数据(如果版本为1,但这是另一个问题)

相关问题