案例篇:ELFK收集nginx日志

前言

前面我们搭建好了ELFK架构,也对配置稍复杂的logstash进行了一些简单的实践,现在来尝试收集一下nginx日志吧

准备前工作

我们首先在nginx中定义一个自己想要的格式,如:

log_format  access_ty  '$remote_addr - $remote_user [$time_local] "$request" '
          '$status $body_bytes_sent "$http_referer" '
      '$http_user_agent $http_x_forwarded_for $request_time  $upstream_addr $upstream_status $upstream_response_time';

在conf中定义访问日志时来引用access_ty这个自定义名字即可

access_log  /var/log/nginx/access_test.log access_ty;

访问一下,得出日志数据如下,这个就作为我们的测试数据了:

100.100.201.135 - - [20/Mar/2023:17:40:12 +0800] "GET / HTTP/1.1" 404 0 "-" Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36 - 0.001  192.168.1.132:8005 404 0.000

思路

  • Filebeat定义nginx日志路径,可固定也可通配符。将收集到的内容 发送给logstash进行过滤处理
  • Logstash接收到filebeat发来的日志,进入到过滤阶段 通过grok正则将字段进行分解,可自定义某些冗余字段对其删除
  • 处理后将message发给es,es中创建对应的索引
  • kibana创建与es索引对应的index patterns 在界面可进行查看

步骤

将测试数据写入/opt/nginx.log中

echo '100.100.201.135 - - [20/Mar/2023:17:40:12 +0800] "GET / HTTP/1.1" 404 0 "-" Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36 - 0.001  192.168.1.132:8005 502 0.000'>>/opt/nginx.log

一.Filebeat配置

vim /opt/filebeat/filebeat.yaml

filebeat.inputs:
- type: log
  input_type: log
  paths:
    - /opt/*.log
  tags: ["nginx", "access"]
  fields:
    logIndex: nginx
    docType: nginx_access
  fields_under_root: true
  tail_files: false

output.logstash:
  enabled: true
  hosts: ["192.168.2.113:5044"]

二.Logstash配置

注意:这个grok正则配置要根据自己的格式来,这里用的都是内置封装好的正则。调试的方法可以去kibana或者grok在线网站去将 测试数据和grok规则 调试匹配好再写到配置文件中 ,节省时间。

%{IPV4:client_ip} - - \[%{HTTPDATE:timestamp}\] \"%{WORD:request_method} %{DATA:request_path} HTTP/%{NUMBER:http_version}\" %{NUMBER:response_code} %{NUMBER:response_size} \"%{DATA:http_referer}\" %{DATA:user_agent} - %{NUMBER:request_time:float}  %{IPV4:upstream_ip}:%{NUMBER:upstream_port:int} %{NUMBER:upstream_response_code:int} %{NUMBER:upstream_response_time:float}

vim /opt/logstash/config/logstash.conf

input {
    beats {
        port => 5044
        client_inactivity_timeout => 36000 #filebeat连接logstash超时时间
    }
}

filter {
#  if [type] == "nginx_access"{
     grok {
          match => { "message" => "%{IPV4:client_ip} - - \[%{HTTPDATE:timestamp}\] \"%{WORD:request_method} %{DATA:request_path} HTTP/%{NUMBER:http_version}\" %{NUMBER:response_code} %{NUMBER:response_size} \"%{DATA:http_referer}\" %{DATA:user_agent} - %{NUMBER:request_time:float}  %{IPV4:upstream_ip}:%{NUMBER:upstream_port:int} %{NUMBER:upstream_response_code:int} %{NUMBER:upstream_response_time:float}" }
     }
     date {
        match => [ "timestamp", "dd/MMM/yyyy:HH:mm:ss Z" ]
        target => "@timestamp" #将匹配到的timestamp写入到@timestap
        remove_field => [ "timestamp" ] #匹配到结果以后去除timestamp字段
     }
#  } 
}

output {
    elasticsearch {
        hosts => ["http://192.168.2.114:9200","http://192.168.2.115:9200","http://192.168.2.116:9200"]
        index => "nginx-logs-%{+YYYY.MM.dd}"
        document_type => "%{[@metadata][type]}"
        user => "logstash_server"
        password => "123456"
    }
#    stdout { codec => rubydebug } #在输出控制台调试
}

启动logstash

cd /opt/logstash/config && ../bin/logstash -f logstash.conf

整个过程可以都打开Filebeat和logstash日志来实时查看。

三.Kibana配置并查看

如果上面日志都无报错,kibana上查看es索引应该是有了的。在对应es的索引创建kibana的index pattern


在写入一次测试数据。再次查看,成功收集到了


遇到的问题

Q1:

保证正则没问题的情况下,写入测试数据后,filebeat收集到日志了,但是es上并没有创建nginx-logs-03-20这个日期的索引,因为我在logstash配置里定义es块的时候写明了是当天日期作为标识,结果并没有。

原因与解决:

写入测试数据的时候,其中的日志时间并不是当天,而是[17/Mar/2023:17:40:12 +0800],17号,所以将这个日志信息写入到了nginx-logs-03-17这个索引中,因为测试阶段都是固定的数据,所以把日志改成当天的来模拟就好了,正式用的时候都自动收集实时信息,不会出现这个问题的。

Q2:

日志消息写入到了es,但是kibana查看不到?
原因与解决:
通过查es索引得知已写入到了es中,那问题可能就在kibana上,解决办法是将kibana仪表盘右上角时间先设定为this year即可看到。
原因为收集的日志数据中如,[20/Mar/2023:17:40:12 +0800]@timestamp ,kibana是根据这个来显示日志的,所以我们要让收集时间和@timestamp相同。所以logstash中配置以下内容:

     date {
        match => [ "timestamp", "dd/MMM/yyyy:HH:mm:ss Z" ]
        target => "@timestamp" #将匹配到的timestamp写入到@timestap
        remove_field => [ "timestamp" ] #匹配到结果以后去除timestamp字段
     }

重启Logstash配置后删除es中索引和kibana对应的index pattern再次查看

总结

了解elfk的工作流,出现问题,一步步排查,通过日志,每个阶段每个阶段的来查看日志是否能写进这一阶段。
查看是否能写到es中,在看是否能过滤成功。调试filebeat---logstash时多通过控制输入/输出台来调试 可大幅提升效率

控制台输出调试:stdout { codec => rubydebug }
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容