Elasticsearch + Logstash + Kibana
ELK 的出现,是为了处理:分布式部署的日志信息分散,不能集合起来统计的问题。有了 ELK就能将集群中的各个服务器上的日志信息 进行 收集,统计。
过程就是 : 由Logstash 进行日志的收集和过滤,再将过滤完的数据传到Elasticsearch上, 让Elasticsearch 进行存储,Kibana 连接ES 进行友好的图形界面的显示和 分析报表。
Logstash:Collection 和分析
Elasicsearch: Storage and search
Kibana: 图形化界面
1. ElasticSearch 无需多说
2. Logstash 【日志搜集处理框架】【按照某种格式输出到指定的文件下】
①。安装(版本需与ElasticSearch一致) : wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.2.tar.gz
②。 创建自定义配置文件 :
vim config/logstash.conf
input {
file {
path => [""] //指定监听的文件路径
type => [""] //文件类型
start_position => "beginning" //开始位置
}
}
output {
elasticsearch {
hosts => [ "localhost:9200" ] #Logstash采集的日志会保存到elasticsearch上
}
}
./bin/logstash -f ./config/logstash.conf
3.Kibana【可视化工具,可以在上边看图形化显示数据,以及日志信息报表】
安装(版本需与ElasticSearch一致):wget https://artifacts.elastic.co/downloads/kibana/kibana-5.6.2-linux-x86_64.tar.gz
vim config/kibana.yml
server.port:5601
server.host: "0.0.0.0" # 允许外网可以访问
elasticsearch.url: "http://xxxx:9200" #连接elasticsearch
./bin/kibana (5601端口)