我们正在kubernetes中运行spark应用程序,并试图通过spark公开的kubernetes\u pods作业来获取度量。我们按照流程在spark中启用度量,并获得驱动程序和执行程序度量。在应用程序执行期间,我们使用kafka主题,然后使用kafkaproducer处理消息并将结果发布到另一个主题。因此,我们得到的Kafka消费者指标没有任何具体的配置,但Kafka生产者指标,我们无法得到。我刚刚更新了driver\u pattern.yaml和executor\u pattern.yaml文件中的(.*),但仍然没有kafkaproducer的度量。请解释一下。
暂无答案!
目前还没有任何答案,快来回答吧!