.NET Core 日志收集(log4net+Kafka+ELK)

在开发环境中,记录日志这件事情常常被忽视,因为我们有强大的 IDE ,可以调试,可以断点,问题出现后一般都能很快解决。但在生产环境,异常一旦发生,如果不能重现,又没有提前做好日志记录,就会非常被动,问题的定位也可能需要花很多时间,问题最终也是不了了之。给对方的回复也许是这样的: 可能你的网络那个时间点有问题

日志当然不只是为了定位问题,实际我们还可以通过日志进行一系列的分析,通过分析结果我们可以获得很多有效信息。这篇文章将介绍如何在 .NET Core 项目中使用 log4net 进行日志收集,虽然是 log4net ,但其他 log4xxx 也类似,毕竟 Kafka + ELK 这一套和语言无关。

在使用 log4net 前,我们需要先搭建好 Kafka 和 ELK 环境,之前的文章介绍过 ELK + Filebeat 搭建日志系统Elasticsearch 集群Kafka 集群,这里会将使用 Kafka 作日志收集,实际情况完全可以 log4net + Filebeat + ELK 、log4net + Redis + ELK 等组合。Kafka、Redis 、Filebeat 都有其自身的特点,根据项目情况选择一种适合的方案即可。

architecture

以下 Kafka 和 ELK 的测试环境将基于 Windows 的非集群模式,集群模式请参考上面的文章。

基础环境搭建

下载 ELK (当前最新 6.5.1),Kafka(Binary downloads) 、ZooKeeper 最新版本,下载后分别解压。每个服务的配置文件这里不详细介绍了,使用默认配置即可。

service dir

ELK

Elasticsearch

在 elasticsearch-6.5.1 目录下,运行启动命令:

bin\elasticsearch

启动成功后,可通过 http://localhost:9200 查看 Elasticsearch 的一些基本信息。

elasticsearch info
Logstash

将 logstash-6.5.1\config 目录下的 logstash-sample.conf 重命名为 logstash.conf,内容暂替换为:

# 输入
input { 
  # 标准输入(命令行输入)
  stdin { }  
}

# 输出
output {
  # 标准输出
  stdout { codec => rubydebug }
}

运行启动命令:

bin\logstash -f config\logstash.conf

启动成功后,在当前的启动窗口中输入测试消息:hi ,马上会返回输出一段 Json 格式的数据,message 为输入的内容,其他字段是内置的。

logstash test
Kibana

在 kibana-6.5.1-windows-x86_64 目录下,运行启动命令:

bin\kibana

启动成功后,通过 http://localhost:5601 访问 Kibana UI,Kibana 默认配置的 Elasticsearch 地址是 http://localhost:9200,所以 Kibana 启动之前,确保 Elasticsearch 已启动,不然会提示 Elasticsearch 状态不正常。

ZooKeeper

将 zookeeper-3.4.13\conf 目录下的 zoo_sample.cfg 重命名为 zoo.cfg,运行启动命令:

bin\zkServer

Kafka

在 kafka_2.12-2.1.0 目录下,运行启动命令:

.\bin\windows\kafka-server-start.bat .\config\server.properties

ZooKeeper 默认访问地址是 localhost:2181,Kafka 启动后默认的 zookeeper.connect=localhost:2181,Kafka 强依赖于 ZooKeeper,所以必须先启动 ZooKeeper。

通过以上步骤,完成了 Kafka 和 ELK 单实例的环境搭建。

项目搭建

  1. 创建一个基于 .NET Core 的 WebApi 项目;

  2. NuGet 安装 Microsoft.Extensions.Logging.Log4Net.AspNetCore;

  3. 启动文件中注入 Log4Net;

    public static IWebHostBuilder CreateWebHostBuilder(string[] args) =>
      WebHost.CreateDefaultBuilder(args)
      .ConfigureLogging((logging) =>
      {
        // 过滤掉 System 和 Microsoft 开头的命名空间下的组件产生的警告级别以下的日志
        logging.AddFilter("System", LogLevel.Warning);
        logging.AddFilter("Microsoft", LogLevel.Warning);
        logging.AddLog4Net();
      })
      .UseStartup<Startup>();
    
  4. 根目录下添加 log4net.config,设置为 “如果较新则复制”;

    log4net 提供了多种内置的 appender,配置使用哪种 appender,就会以对应 appender 的实现方式来记录日志。以下例子使用了 FileAppender,日志的格式由 layout 设定,追加的方式写入 Logs/log-file.log。

    <?xml version="1.0" encoding="utf-8" ?>
    <log4net>
      <appender name="FileAppender" type="log4net.Appender.FileAppender">
        <file value="Logs/log-file.log" />
        <appendToFile value="true" />
        <layout type="log4net.Layout.PatternLayout">
          <conversionPattern value="%date [%thread] %-5level %logger - %message%newline" />
        </layout>
      </appender>
      <root>
        <level value="ALL"/>
        <appender-ref ref="FileAppender" />
      </root>
    </log4net>
    

    appender 支持自定义,只要符合 appender 定义规则即可,这里我开发了一个将日志写入 Kafka 的 NuGet 包, log4net.Kafka.Core,安装后在 log4net.config 添加 KafkaAppender 配置即可。log4net.Kafka.Core 源码 在 github 上 ,可以 Fork 自行修改。

    <?xml version="1.0" encoding="utf-8" ?>
    <log4net>
      <appender name="KafkaAppender" type="log4net.Kafka.Core.KafkaAppender, log4net.Kafka.Core">
        <KafkaSettings>
          <broker value="127.0.0.1:9092" />
          <topic value="api-log" />
        </KafkaSettings>
        <layout type="log4net.Kafka.Core.KafkaLogLayout,log4net.Kafka.Core" >
          <appid value="api-test" />
        </layout>
      </appender>
      <root>
        <level value="ALL"/>
        <appender-ref ref="KafkaAppender" />
      </root>
    </log4net>
    

    broker: Kafka 服务地址,集群可使用,分割;

    topic:日志对应的 Topic 名称;

    appid:服务唯一标识,辅助识别日志来源;

    KafkaAppender 日志写入 Kafka Topic 的格式如下:

    {
      "host_name": "Beck",
      "logger_name": "WebApi.Controllers.ValuesController",
      "log_timestamp": 1543745129111,
      "level": "INFO",
      "message": "自定义的日志内容",
      "app_id": "api-test",
      "exception": null
    }
    

    接下来我们需要修改 Logstash 的配置文件,之前 Logstash 的 input 设置的是标准输入,现在需要改成 Kafka 输入(可以理解为 Logstash 是 Kafka 的消费端, 将消费 api-log 这个 Topic),输出改到 Elasticsearch, 这里使用 app_id 作为索引名称,使得每个服务的日志相互独立,便于后续查看。修改后的 logstash.conf 如下:

    # 输入
    input { 
      kafka {
        codec => "json"
        bootstrap_servers => "localhost:9092"
        topics => ["api-log"] 
        auto_offset_reset => "earliest"
      }
    }
    
    filter {
      date {
        # 时间戳转换
        match => [ "log_timestamp" , "UNIX_MS" ]
      }
    }
    
    # 输出
    output {
      # 输出到 Elasticsearch
      elasticsearch {
        # Elasticsearch 地址
        hosts => ["localhost:9200"] 
        # Elasticsearch 索引名
        index => "logstash-%{app_id}"
      }
    }
    

    在 ValuesController 修改代码进行测试:

    public class ValuesController : ControllerBase
    {
      private readonly ILogger _logger;
    
      public ValuesController(ILogger<ValuesController> logger)
      {
        _logger = logger;
      }
    
      [HttpGet]
      public ActionResult<IEnumerable<string>> Get()
      {
        _logger.LogInformation("request api/values");
        _logger.LogError(new Exception("出错啦!!!"), "request api/values");
        return new string[] { "value1", "value2" };
      }
    }
    

接口调用完成后,可以通过 Kibana 查看到索引 logstash-api-test 的日志信息。

kibana log

目前 log4net.Kafka.Core 封装的并不完善,后面会继续优化。

参考链接

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,530评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,403评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,120评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,770评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,758评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,649评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,021评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,675评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,931评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,751评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,410评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,004评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,969评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,042评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,493评论 2 343

推荐阅读更多精彩内容