摘要:
1.日志输出到文件并根据LEVEL级别将日志分类保存到不同文件
2.通过异步输出日志减少磁盘IO提高性能
3.异步输出日志的原理
1、配置文件logback-spring.xml
SpringBoot工程自带logback和slf4j的依赖,所以重点放在编写配置文件上,需要引入什么依赖,日志依赖冲突统统都不需要我们管了。
logback框架会默认加载classpath下命名为logback-spring.xml或logback.xml的配置文件。
如果将所有日志都存储在一个文件中,文件大小也随着应用的运行越来越大并且不好排查问题,正确的做法应该是将error日志和其他日志分开,并且不同级别的日志根据时间段进行记录存储。
配置文件:
<?xml version="1.0" encoding="UTF-8"?> <configuration debug="true"> <!-- 项目名称 --> <property name="PROJECT_NAME" value="project-api" /> <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径--> <property name="LOG_HOME" value="logs" /> <!-- 控制台输出 --> <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> <withJansi>true</withJansi> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- ERROR日志文件,记录错误日志 --> <appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/error.log</file> <!-- 过滤器,只打印ERROR级别的日志 --> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>ACCEPT</onMatch> <onMismatch>DENY</onMismatch> </filter> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/error.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- INFO日志文件,用于记录重要日志信息 --> <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/info.log</file> <!-- 过滤器,只打印INFO级别的日志 --> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>INFO</level> <onMatch>ACCEPT</onMatch> <onMismatch>DENY</onMismatch> </filter> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/info.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- 打印的SQL日志文件,用于执行的SQL语句和参数信息 --> <appender name="SQL_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/sql.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/sql.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- API请求被访问的日志文件,记录请求的URL和携带的参数 --> <appender name="REQUEST_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <file>${LOG_HOME}/${PROJECT_NAME}/request.log</file> <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> <!--日志文件输出的文件名--> <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/request.%i.zip</FileNamePattern> <!--日志文件保留天数--> <MaxHistory>3650</MaxHistory> <!--日志文件最大的大小--> <MaxFileSize>100MB</MaxFileSize> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 --> <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line]- %msg%n</pattern> <charset>UTF-8</charset> </encoder> </appender> <!-- 异步输出INFO_FILE --> <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="INFO_FILE"/> </appender> <!-- 异步输出ERROR_FILE --> <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="ERROR_FILE"/> </appender> <!-- 异步输出SQL_FILE --> <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="SQL_FILE"/> </appender> <!-- 异步输出REQUEST_FILE --> <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="REQUEST_FILE"/> </appender> <!-- 输出error信息到文件--> <logger name="error" additivity="true"> <appender-ref ref="ERROR_FILE"/> </logger> <!-- 输出info信息到文件--> <logger name="info" additivity="true"> <appender-ref ref="INFO_FILE"/> </logger> <!-- 输出request信息到文件--> <logger name="request" level="INFO" additivity="false"> <appender-ref ref="REQUEST_FILE" /> </logger> <!-- 输出SQL到控制台和文件--> <logger name="org.hibernate.SQL" additivity="false"> <level value="DEBUG" /> <appender-ref ref="SQL_FILE" /> </logger> <!-- 输出SQL的参数到控制台和文件--> <logger name="org.hibernate.type.descriptor.sql.BasicBinder" additivity="false" level="TRACE"> <level value="TRACE" /> <appender-ref ref="SQL_FILE" /> </logger> <!-- 开发环境下的日志配置 --> <springProfile name="dev"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> <!-- 测试环境下的日志配置 --> <springProfile name="test"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> <!-- 生产环境下的日志配置 --> <springProfile name="prod"> <root level="INFO"> <appender-ref ref="CONSOLE" /> <appender-ref ref="ERROR_FILE" /> <appender-ref ref="INFO_FILE" /> </root> </springProfile> </configuration>
标签说明:
<root>标签,必填标签,用来指定最基础的日志输出级别
<appender-ref>标签,添加append
<append>标签,通过使用该标签指定日志的收集策略
<filter>标签,通过使用该标签指定过滤策略
<level>标签指定过滤的类型
<encoder>标签,使用该标签下的<pattern>标签指定日志输出格式
<rollingPolicy>标签指定收集策略,比如基于时间进行收集
<fileNamePattern>标签指定生成日志保存地址,通过这样配置已经实现了分类分日期收集日志的目标了
name属性指定appender命名
class属性指定输出策略,通常有两种,控制台输出和文件输出,文件输出就是将日志进行一个持久化
ConsoleAppender将日志输出到控制台
部分截图展示:
目录:
error.log
info.log
sql.log
request.log
2、logback 高级特性异步输出日志
如果不配置异步输出规则,那么默认日志配置方式是基于同步的,每次日志输出到文件都会进行一次磁盘IO。
采用异步写日志的方式而不让此次写日志发生磁盘IO,阻塞线程从而造成不必要的性能损耗。
异步输出日志的方式很简单,添加一个基于异步写日志的appender,并指向原先配置的appender即可。
异步输出配置:
<!-- 异步输出INFO_FILE --> <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="INFO_FILE"/> </appender> <!-- 异步输出ERROR_FILE --> <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="ERROR_FILE"/> </appender> <!-- 异步输出SQL_FILE --> <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="SQL_FILE"/> </appender> <!-- 异步输出REQUEST_FILE --> <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender"> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 --> <discardingThreshold>0</discardingThreshold> <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 --> <appender-ref ref="REQUEST_FILE"/> </appender>
参数配置:
参数名称 参数类型 建议值 说明queueSizeintqueueSize计算
example:假设IO影响30s,日志和qps比例是1:1,单容器压测值1500 qps则可以推算出queue size的值,queueSize的设置公式:30 *1500=45000。阻塞队列的最大容量。默认情况下,queueSize设置为256。discardingThresholdint
使用默认值20,或者设置大于0。
如果设置discardingThreshold=0,表示queue 满了,不丢弃,block线程。
默认情况下,当阻塞队列剩余20%的容量时,它将丢弃级别跟踪、调试和信息事件,只保留级别警告和错误事件。要保留所有事件,请将discardingThreshold设置为0。neverBlockbooleantrue如果为false(默认值),则追加程序将阻止追加到完整队列,而不是丢失消息。设置为true时,附加程序只会丢弃消息,不会阻止您的应用程序。
官方文档链接:http://logback.qos.ch/manual/appenders.html#AsyncAppender
3、异步日志输出原理
异步输出日志中最关键的就是配置文件中ch.qos.logback.classic包下AsyncAppenderBase类中的append方法,查看该方法的源码:@Override protected void append(E eventObject) { if (isQueueBelowDiscardingThreshold() && isDiscardable(eventObject)) { return; } preprocess(eventObject); put(eventObject); }
通过队列情况判断是否需要丢弃日志,不丢弃的话将它放到阻塞队列中,通过查看代码,这个阻塞队列为queueSize,默认大小为256,可以通过配置文件进行修改。
/** * The default buffer size. */ public static final int DEFAULT_QUEUE_SIZE = 256; int queueSize = DEFAULT_QUEUE_SIZE;
Logger.info(...)到append(...)就结束了,只做了将日志塞入到阻塞队列的事,然后继续执行Logger.info(...)下面的语句了。在AsyncAppenderBase类中定义了一个Worker线程,run()方法中的代码如下:
Worker worker = new Worker();class Worker extends Thread { public void run() { AsyncAppenderBase<E> parent = AsyncAppenderBase.this; AppenderAttachableImpl<E> aai = parent.aai; // loop while the parent is started while (parent.isStarted()) { try { E e = parent.blockingQueue.take(); aai.appendLoopOnAppenders(e); } catch (InterruptedException ie) { break; } } addInfo("Worker thread will flush remaining events before exiting. "); for (E e : parent.blockingQueue) { aai.appendLoopOnAppenders(e); parent.blockingQueue.remove(e); } aai.detachAndStopAllAppenders(); } }
从阻塞队列中取出一个日志,并调用AppenderAttachableImpl类中的appendLoopOnAppenders方法维护一个Append列表。
最主要的两个方法就是encode和write方法,前一个法方会根据配置文件中encode指定的方式转化为字节码,后一个方法将转化成的字节码写入到文件中去。
所以写文件是通过新起一个线程去完成的,主线程将日志放到阻塞队列中,然后又去执行其他任务。