elasticsearch 使用ELK监控Kong API日志

daupos2t  于 2022-11-22  发布在  ElasticSearch
关注(0)|答案(1)|浏览(276)

我们正在使用ELK(Elasticsearsh,Logstash,Kibana)版本8.x从Kong API网关版本2.8使用tcp-logs插件收集日志。
我们已经配置了tcp-logs插件,使用Logstash作为端点,将日志发送到Logstash,然后Logstash将日志发送到Elasticsearch。
Kong TCP日志插件-〉Logstash -〉ElasticSearch
感谢您的支持,请澄清以下内容:
如何使用Kibana显示Kong API网关日志?我应该从哪里开始?在Elasticsearch中是否会默认创建Kong日志的索引?我需要使用什么Elasticsearch索引模式来获取Kong API日志?

注意:我没有在Kong API节点上使用filebeat代理。我使用tcp-logs插件将Kong日志发送到Logstash。

/etc/logstash/conf.d/beats.conf文件的内容

input {
  beats {
    port => 5044
  }
}
filter {
  if [type] == "syslog" {
     grok {
        match => { "message" => "%{SYSLOGLINE}" }
  }
     date {
        match => [ "timestamp", "MMM  d HH:mm:ss", "MMM dd HH:mm:ss" ]
     }
  }
}
output {
  elasticsearch {
    hosts => ["Elstic_IP_Address:9200"]
    index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}"
  }
}

非常感谢您的支持!

izkcnapc

izkcnapc1#

要解决这个问题,我们必须在/etc/logstash/conf.d/beats.conf配置文件的内容中使用index => "transaction"
然后使用transaction索引显示Kibana上的日志。

input {
  beats {
    port => 5044
  }
}
filter {
  if [type] == "syslog" {
     grok {
        match => { "message" => "%{SYSLOGLINE}" }
  }
     date {
        match => [ "timestamp", "MMM  d HH:mm:ss", "MMM dd HH:mm:ss" ]
     }
  }
}
output {
  elasticsearch {
    hosts => ["Elstic_IP_Address:9200"]
    index => "transaction"
  }
}

相关问题