使用DruidGraphite发射器扩展

cbjzeqam  于 2021-06-07  发布在  Kafka
关注(0)|答案(2)|浏览(301)

我正在试用druid中的graphite发射器插件,以便在druid性能测试期间收集graphite中的某些druid指标。其目的是使用graphite提供的restapi查询这些度量,以便描述部署的性能。
然而,graphite返回的数字没有意义。所以,我想检查一下我是否以正确的方式解释了结果。
设置
Kafka索引服务用于将数据从Kafka摄取到Druid中。
我已经启用了graphite发射器,并提供了一个要收集的度量的白名单。
然后我把5000个事件推到正在索引的Kafka主题。使用与kafka相关的工具,我确认消息确实存储在kafka日志中。
接下来,我取回了 ingest.rows.output metric 从graphite使用以下调用:
“ curl ”http://graphite_ip:graphite\u port>/render/?target=druid.test.inset.rows.output&format=csv“
以下是我得到的结果:

druid.test.ingest.rows.output,2017-02-22 01:11:00,0.0 
druid.test.ingest.rows.output,2017-02-22 01:12:00,152.4 
druid.test.ingest.rows.output,2017-02-22 01:13:00,97.0 
druid.test.ingest.rows.output,2017-02-22 01:14:00,0.0

我不知道这些数字需要怎么解释:
问题
输出中的数字152.4和97.0表示什么?
“行数”怎么可能是152.4这样的浮点值?
这些数字和我推给Kafka的5000条信息有什么关系?
提前谢谢,
吉钦

jgwigjjp

jgwigjjp1#

我在做了一些实验后发现了这个问题。因为我的kafka主题有多个分区,所以druid运行多个任务来索引kafka数据(每个分区一个任务)。每个任务都定期报告各种度量。对于每个度量,每个时间间隔从graphite获得的数字是该时间间隔内所有任务报告的度量值的平均值。在我上面的例子中,如果聚合函数是sum(而不是average),那么从graphite得到的值应该是5000。
然而,我无法计算出平均值是否由 graphite-emitter Druid插件或石墨。

dffbzjpn

dffbzjpn2#

根据druid metrics页面,它指示汇总后的事件数。观察到的浮点值是由于计算了graphite服务器用来汇总数据的一段时间内的平均值。因此,如果这些指标是完整的,这意味着您最初的5000行被压缩到大约250行。

相关问题