关于日志的收集(二)

上一篇我们已经对log进行过简单的封装,现在来说另外一种,在配置文件中进行,1、将配置文件写错yaml的格式,2、将配置文件写成dict的格式,yaml文件和dict本质上一样,直接上代码
1、新建setting目录,新建一个settings.py

'''
    logging模块有三个比较重要的功能组件:
    1、loggers :日志记录器的名称,比如loggers1,login模块
    2、handler :日志的分隔大小,输出位置,日志文件创建等
    3、formatters 配置日志输出的格式
'''
from datetime import datetime
import logging
class myFilter(logging.Filter):
    def filter(self, record):
        '''
         一般根据日志收集器的名字,日志级别过滤一些日志
         debug:10
         info:20
         warning:30
         error:40
         critical:50

        '''
        #过滤掉日志名称为login的日志
        if record.name == 'login':
            return False
        # 过滤掉level低于30(warning)的日志
        if record.levelno <= 30:
            return False
        return True


LOGGING_DICT = {
    "version": 1.0,
    'disable_existing_loggers': False,
    # 自定义几个日志的输出格式,供下面处理器选择,我定义了两种
    'formatters': {
        'standard': {
            'format': '%(asctime)s [%(name)s] %(levelname)s [%(pathname)s:%(lineno)d]  %(module)s [%(funcName)s] %(message)s',
            'datefmt': '%Y-%m-%d %H:%M:%S', },#默认的日期格式里面有毫秒,我们希望得到2022-08-29 12:01:30这种格式
        'simple': {
            'format': '%(asctime)s [%(name)s] %(levelname)s %(message)s',
            'datefmt': '%Y-%m-%d %H:%M:%S', },
    },
    #添加到handler里面即可使用,也支持多个同时添加
    'filters': {
        "myfilters": {
            "()": myFilter
        }
},
    # 日志处理器,我们定义了两种,一个输出到终端,一个输出到文件
    'handlers': {
        'console_handler': {
            'level': 'DEBUG',  # 日志处理的级别限制
            'class': 'logging.StreamHandler',  # 输出到终端
            'formatter': 'simple' , # 日志格式
            'filters': ["myfilters"]
        },
        'file_handler': {
            'level': 'DEBUG',#日志级别:debug,info,warning,error,critical
            'class': 'logging.handlers.RotatingFileHandler',  # 保存到文件,日志轮转
            'filename': datetime.now().date().strftime('%Y%m%d') + ".log",  # 以当天的日期命名日志,便于查询,如20220826.log,20220827.log,根据自己项目配置路径即可
            'maxBytes': 1024 * 1024 * 10,  # 日志大小 10M
            'backupCount': 10,  # 日志文件保存数量限制
            'encoding': 'utf-8',  # 日志编码
            'formatter': 'standard',  # 日志格式,上面formatters里面自定义的
        },

    },
    # 日志记录器
    "loggers": {
        '': {  # 如果为空,则是你后面使用的时候自定义传入的名字,如果不为空,那你使用的时候就是当前写死的名字
            'handlers': ['console_handler', 'file_handler'],  # 日志分配到哪个handlers中,可以一个,可以多个,列表形式,这种就是即打印到终端,也存入到文件
            'level': 'INFO',  # 日志记录的级别限制
            'propagate': False,  # 默认为True,向上(更高级别的logger)传递,设置为False即可,否则会一份日志向上层层传递
        },
    }

}

2、在setting目录下面新建一个index.py

import logging.config#导入logging模块里面的config包
from setting import settings#导入我们的配置文件

logging.config.dictConfig(settings.LOGGING_DICT)#直接读取我们配置的字段内容
#下面是自己定义的一些函数进行试验
def login():
    logger2 = logging.getLogger('登录')#这里传入登录,就是我们的搜集器的名称就是登录,根据自己的情况写就好了,有的直接以项目名称命名
    logger2.info('***登录成功了')


def look():
    logger3 = logging.getLogger('浏览')
    logger3.info('正在浏览手机类商品')


def get_order():
    logger4 = logging.getLogger('下单')
    logger4.warning("下单发生延迟")


def pay():
    logger5 = logging.getLogger('支付')
    logger5.error("***支付失败")
if __name__ == '__main__':
    for i in range(2):
        login()
        look()
        get_order()
        pay()

3、执行上面的index.py,在setting目录下生成20220829.log文件,终端也会根据我们定义的格式保存日志;
20220829.log

2022-08-29 12:01:30 [登录] INFO [D:\python\setting\index.py:9]  index [login] ***登录成功了
2022-08-29 12:01:30 [浏览] INFO [D:\python\setting\index.py:14]  index [look] 正在浏览手机类商品
2022-08-29 12:01:30 [下单] WARNING [D:\python\setting\index.py:19]  index [get_order] 下单发生延迟
2022-08-29 12:01:30 [支付] ERROR [D:\python\setting\index.py:24]  index [pay] ***支付失败
2022-08-29 12:01:30 [登录] INFO [D:\python\setting\index.py:9]  index [login] ***登录成功了
2022-08-29 12:01:30 [浏览] INFO [D:\python\setting\index.py:14]  index [look] 正在浏览手机类商品
2022-08-29 12:01:30 [下单] WARNING [D:\python\setting\index.py:19]  index [get_order] 下单发生延迟
2022-08-29 12:01:30 [支付] ERROR [D:\python\setting\index.py:24]  index [pay] ***支付失败

终端:

2022-08-29 12:01:30 [登录] INFO ***登录成功了
2022-08-29 12:01:30 [浏览] INFO 正在浏览手机类商品
2022-08-29 12:01:30 [下单] WARNING 下单发生延迟
2022-08-29 12:01:30 [支付] ERROR ***支付失败
2022-08-29 12:01:30 [登录] INFO ***登录成功了
2022-08-29 12:01:30 [浏览] INFO 正在浏览手机类商品
2022-08-29 12:01:30 [下单] WARNING 下单发生延迟
2022-08-29 12:01:30 [支付] ERROR ***支付失败

总之,这样配置文件的方式其实更方便我们使用,什么地方需求,导入就行了,修改配置的时候也方便

追加

关于handler里面的两个日志文件的参数

'maxBytes': 4000,  # 单位是字节,比如1024*1024就是1M,一般写大一点但是也不要太大
'backupCount': 3,  # 日志文件保存数量限制

比如按照上面这样配置,那我的日志文件会生成20220902.log一个文件,文件大小超过4000字节之后,会生成20220902.log.1(本质上20220902.log的内容放在这个新文件里面,重新生成新的.log)
以此类推,当20220902.log再次大于4000字节,会生成20220902.log.2,会生成20220902.log.3
'backupCount': 3,现在就会限制生成的数量,当log继续生成的时候,超过的部分文件就会被自动删除,因此同时最多保持4个log文件

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容