今天给大家介绍另外一款优雅的日志——loguru。loguru
是Python
中一个简易且强大的第三方日志记录库,在通过添加一系列有用的功能来解决标准记录器的注意事项,从而减少 Python 日志记录的痛苦。
一、loguru特性
使用 Python 来写程序或者脚本的话,常常遇到的问题就是需要对日志进行删除。一方面可以帮助我们在程序出问题的时候排除问题,二来可以帮助我们记录需要关注的信息。
如果使用自带自带的 logging
模块的话,则需要我们进行不同的初始化等相关工作。对应不熟悉该模块的伙伴们来说还是有些费劲的,比如需要配置 Handler、Formatter 等。
import logging
logger = logging.getLogger('xxx')
handler = logging.StreamHandler()
formatter = logging.Formatter('%(asctime)s %(name)-12s %(levelname)-8s %(message)s')
handler.setFormatter(formatter)
logger.addHandler(handler)
logger.setLevel(logging.DEBUG)
logger.debug('This is a %s', 'test')
而loguru
就是一个可以 开箱即用 的日志记录模块,我们不再需要复杂的初始化操作就可以通过如下命令来记录日志信息了。
2、loguru功能特性loguru有很多优点,以下列举了其中比较重要的几点:
开箱即用,无需准备;
无需初始化,导入函数即可使用;
更容易的文件日志记录与转存/保留/压缩方式;
更优雅的字符串格式化输出;
可以在线程或主线程中捕获异常;
可以设置不同级别的日志记录样式;
支持异步,且线程和多进程安全;
支持惰性计算;
适用于脚本和库;
完全兼容标准日志记录;
更好的日期时间处理;
二、loguru使用
接下来介绍 loguru 的常用操作和功能,助你快速上手!
1、导入模块
2、使用函数
无需初始化,导入函数即可使用:
3、文件日志记录与转存/保留/压缩方式
更容易的文件日志记录与转存/保留/压缩方式:
# 日志文件记录
logger.add("file_{time}.log")
# 日志文件转存
logger.add("file_{time}.log", rotation="500 MB")
logger.add("file_{time}.log", rotation="12:00")
logger.add("file_{time}.log", rotation="1 week")
# 多长时间之后清理
logger.add("file_X.log", retention="10 days")
# 使用zip文件格式保存
logger.add("file_Y.log", compression="zip")
4、字符串格式化输出
更优雅的字符串格式化输出:
5、捕获异常
在线程或主线程中捕获异常:
6、设置日志级别
可以设置不同级别的日志记录样式,loguru
会自动为不同的日志级别,添加不同的颜色进行区分,当然我们也是可以自定义自己喜欢的显示颜色样式的。
7、异步写入
支持异步且线程和多进程安全:
默认情况下,添加到logger
中的日志信息都是线程安全的。但这并不是多进程安全的,我们可以通过添加 enqueue
参数来确保日志完整性。
如果我们想要在异步任务中使用日志记录的话,也是可以使用同样的参数来保证的。并且通过complete()
来等待执行完成。
8、异常的完整性描述
异常的完整性描述用于记录代码中发生的异常的 bug 跟踪,loguru 通过允许显示整个堆栈跟踪(包括变量值)来帮助我们识别问题。
9、结构化日志记录
对日志进行序列化以便更容易地解析或传递数据结构,使用序列化参数,在将每个日志消息发送到配置的接收器之前,将其转换为 JSON
字符串。
同时,使用 bind() 方法,可以通过修改额外的 record 属性来将日志记录器消息置于上下文中。还可以通过组合 bind() 和 filter 对日志进行更细粒度的控制。
最后 patch() 方法允许将动态值附加到每个新消息的记录 dict
上。
# 序列化为json格式
logger.add(custom_sink_function, serialize=True)
# bind方法的用处
logger.add("file.log", format="{extra[ip]} {extra[user]} {message}")
context_logger = logger.bind(ip="192.168.0.1", user="someone")
context_logger.info("Contextualize your logger easily")
context_logger.bind(user="someone_else").info("Inline binding of extra attribute")
context_logger.info("Use kwargs to add context during formatting: {user}", user="anybody")
# 粒度控制
logger.add("special.log", filter=lambda record: "special" in record["extra"])
logger.debug("This message is not logged to the file")
logger.bind(special=True).info("This message, though, is logged to the file!")
# patch()方法的用处
logger.add(sys.stderr, format="{extra[utc]} {message}")
logger = logger.patch(lambda record: record["extra"].update(utc=datetime.utcnow()))
10、 惰性计算
有时希望在生产环境中记录详细信息而不会影响性能,可以使用opt()
方法来实现这一点。
logger.opt(lazy=True).debug("If sink level <= DEBUG: {x}", x=lambda: expensive_function(2**64))
# By the way, "opt()" serves many usages
logger.opt(exception=True).info("Error stacktrace added to the log message (tuple accepted too)")
logger.opt(colors=True).info("Per message colors ")
logger.opt(record=True).info("Display values from the record (eg. {record[thread]})")
logger.opt(raw=True).info("Bypass sink formatting\n")
logger.opt(depth=1).info("Use parent stack context (useful within wrapped functions)")
logger.opt(capture=False).info("Keyword arguments not added to {dest} dict", dest="extra")
11、 可定制的级别
可定制的级别:
12、 兼容标准日志记录
完全兼容标准日志记录:
希望使用 Loguru 作为内置的日志处理程序?
需要将 Loguru 消息到标准日志?
想要拦截标准的日志消息到 Loguru 中汇总?
handler = logging.handlers.SysLogHandler(address=('localhost', 514))
logger.add(handler)
class InterceptHandler(logging.Handler):
def emit(self, record):
# Get corresponding Loguru level if it exists
try:
level = logger.level(record.levelname).name
except ValueError:
level = record.levelno
# Find caller from where originated the logged message
frame, depth = logging.currentframe(), 2
while frame.f_code.co_filename == logging.__file__:
frame = frame.f_back
depth += 1
logger.opt(depth=depth, exception=record.exc_info).log(level, record.getMessage())
logging.basicConfig(handlers=[InterceptHandler()], level=0)
13、 方便的解析器
从生成的日志中提取特定的信息通常很有用,这就是为什么 loguru 提供了一个 parse()
方法来帮助处理日志和正则表达式。
pattern = r"(?P
14、 Flask框架集成
最关键的一个问题是如何兼容别的 logger
,比如说 tornado 或者 django 有一些默认的 logger。经过研究,最好的解决方案是参考官方文档的,完全整合 logging 的工作方式,比如下面将所有的 logging都用 loguru 的 logger 再发送一遍消息。
import logging
import sys
from pathlib import Path
from flask import Flask
from loguru import logger
app = Flask(__name__)
class InterceptHandler(logging.Handler):
def emit(self, record):
logger_opt = logger.opt(depth=6, exception=record.exc_info)
logger_opt.log(record.levelname, record.getMessage())
def configure_logging(flask_app: Flask):
"""配置日志"""
path = Path(flask_app.config['LOG_PATH'])
if not path.exists():
path.mkdir(parents=True)
log_name = Path(path, 'sips.log')
logging.basicConfig(handlers=[InterceptHandler(level='INFO')], level='INFO')
# 配置日志到标准输出流
logger.configure(handlers=[{"sink": sys.stderr, "level": 'INFO'}])
# 配置日志到输出到文件
logger.add(log_name, rotation="500 MB", encoding='utf-8', colorize=False, level='INFO')
主要函数的使用方法和细节 - add()的创建和删除
add() - 非常重要的参数 sink
参数
具体的实现规范可以参见官方文档;
可以实现自定义 Handler 的配置,比如 FileHandler、StreamHandler 等等;
可以直接传入一个 str 字符串或者 pathlib.Path 对象;
另外,添加 sink 之后我们也可以对其进行删除,相当于重新刷新
并写入新的内容。删除的时候根据刚刚 add 方法返回的 id 进行删除即可。可以发现,在调用 remove 方法之后,确实将历史 log 删除了。但实际上这并不是删除,只不过是将 sink 对象移除之后,在这之前的内容不会再输出到日志中,这样我们就可以实现日志的刷新重新写入操作。
怎么样,是不是觉得loguru优雅又别致?感兴趣的伙伴们,动手试试吧~
感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的,虽然不是什么很值钱的东西,如果你用得到的话可以直接拿走:
① 2000多本Python电子书(主流和经典的书籍应该都有了)
② Python标准库资料(最全中文版)
③ 项目源码(四五十个有趣且经典的练手项目及源码)
④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)
⑤ Python学习路线图(告别不入流的学习)
上图的资料 在我的QQ技术交流群里(技术交流和资源共享,广告进来腿给你打断)
群里的免费资料都是笔者十多年测试生涯的精华。还有同行大神一起交流技术哦。