opentsdb的性能

liwlm1x9  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(537)

返回9000个数据点的json需要6秒钟。我在12个指标中有大约10gb的数据,比如x.open,x.close。。。
数据存储模式:公制:x.open
标记:符号
tagv:字符串值
公制:x.close
标记:符号
tagv:字符串值
我的配置如下所示
节点1:(real 16gb activenn)日志节点,名称节点,zookeeper,regionserver,hmaster,dfszkfailovercontroller,tsd
节点2:(vm 8gb standbynn)journalnode,namenode,zookeeper,regionserver
节点3:(实16gb)数据节点,regionserver,tsd
node 4:(vm 4gb)journalnode、datanode、zookeeper、regionserver该设置是为poc/dev而不是为生产而设置的。
时间戳的宽度就像,从1980年到今天,easch度量下的每个符号每天有一个数据点。。如果上面的语句令人困惑(我的12个度量值将在连续运行中每天添加3095个数据点,每个符号一个数据点)
当前场景中标记值的基数是3095+个符号
查询sample:http://我的ipaddress:4242/api/query?start=1980/01/01&结束=2016/02/18&m=sum:stock.open{symbol=ibm}&arrays=true
调试器结果:8.44秒;检索数据点8859;数据大小:55kb
数据写入速度也很慢,写入220万个数据点需要6.5小时。我的配置有问题吗?还是期望过高?
编写方法:通过http编写json对象
盐渍已启用:尚未启用

nlejzf6q

nlejzf6q1#

一个度量中的数据太多会导致性能下降。结果可能是9000个数据点,但原始数据集可能太大。从一百万个数据点中检索9000个数据点的性能将与从十亿个数据点中检索9000个数据点的性能大不相同。

相关问题