elasticsearch 如何在ELK中分析来自多个源的日志

nwnhqdif  于 2022-11-22  发布在  ElasticSearch
关注(0)|答案(1)|浏览(162)

我最近开始在ELK上工作,对处理多种类型的日志有疑问。我想分析我的服务器上的两组日志,一个来自我的Android应用程序,另一个来自我的网站。我已经成功地通过Filebeat将日志从这个服务器传输到ELK服务器。我已经为这两种类型的日志创建了两个过滤器,并成功地将这些日志导入到logstash和Kibana中。
这个链接帮助完成了上面的工作。
https://www.digitalocean.com/community/tutorials/how-to-install-elasticsearch-logstash-and-kibana-elk-stack-on-centos-7
上面的链接指示使用Kibana中filebeat索引中的日志并开始分析(我成功地为一种类型的日志做了)。但我面临的问题是,由于这两种日志非常不同,需要对它们进行不同的分析。我如何在Kibana中做到这一点?我应该在那里创建多个filebeat索引并导入它们,还是应该只创建一个索引,或者其他一些方式。我不是很清楚这一点(找不到太多的文档),因此会要求请帮助和指导我在这里。

nbysray5

nbysray51#

Elasticsearch按索引和类型组织。Elastic过去将这些与SQL概念进行比较,但现在提供了new explanation
既然您说日志非常不同,Elastic就是说您应该使用不同的索引。
在Kibana中,可视化与索引相关联。如果每个索引都有一个面板,则可以在同一 Jmeter 板上显示这两个面板。

相关问题