资讯专栏INFORMATION COLUMN

Python--Redis实战:第五章:使用Redis构建支持程序:第1节:使用Redis来记录日志

mdluo / 1648人阅读

摘要:包括在内的很多软件都使用这种方法来记录日志。在这一节中,我们将介绍如何使用来存储于时间紧密相关的日志,从而在功能上替代那些需要在短期内被存储的消息。

</>复制代码

  1. 上一篇文章:Python--Redis实战:第四章:数据安全与性能保障:第8节:关于性能方面的注意事项
    下一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第2节:计数器和统计数据

在构建应用程序和服务的过程中,对正在运行的系统的相关信息的挖掘能力将变得越来越重要:无论是通过挖掘信息来诊断系统问题,还是发现系统中潜在的问题,甚至是挖掘与用户有关的信息:这些都需要用到日志。

在Linux和Unix的世界中,有两种常见的记录日志的方法。第一种是将日志记录到文件里面,然后随着时间流逝不断地将一个又一个日志添加到文件里面,并在一段时间之后创建新的日志文件。包括Redis在内的很多软件都使用这种方法来记录日志。但这种记录日志的方式有可能会遇上麻烦:因为每个不同的服务器会创建不同的日志,而这些服务轮换日志也各不相同,并且也缺少一种能够方便地聚合所有日志并对其进行处理的常用方法。

syslog服务是第二种常用的日志记录方法,这个服务运行在几乎所有Linux服务器和Unix服务器的514号TCP端口和UDP端口上面。syslog接受其他程序发来的日志信息,并将这些消息路由存储在硬盘上的各个日志文件里面,除此之外,syslog还复制旧日志的轮换和删除工作。通过配置,syslog甚至可以将日志消息转发给其他服务来做进一步的处理。因为指定日志的轮换和删除工作都交给syslog来完成,所以使用syslog服务比直接将日志写入文件要方便的多。

</>复制代码

  1. 替换syslog

    无论读者使用上面列举的两种日志方法中的哪一种,都最好考虑把系统目前的syslog守护进程(通常是Rsyslogd)替换成syslog-ng。因为我经过使用并配置Rsyslogd和syslog-ng之后,发现syslog-ng用于管理和组织日志消息的配置语言使用起来更简单一些。另外,尽管因为时间和篇幅限制,我没有办法在书中构建一个处理syslog消息并将消息存储到Redis里面的服务,但对于那些需要在处理请求时立即执行的操作,以及那些可以在请求处理完毕之后再执行的操作(如日志记录和更新计数器)来说,这种服务器非常适合用作介于这两种操作之间的间接层。

syslog的转发功能可以将不同的日志分别存储在同一台服务器的多个文件里面,这对于长时间地记录日志非常有帮助(记得备份)。在这一节中,我们将介绍如何使用Redis来存储于时间紧密相关的日志,从而在功能上替代那些需要在短期内被存储的syslog消息。

首先让我们来看看,如何记录连续更新的最新日志消息。

最新日志

在构建一个系统的时候,判断哪些信息需要被记录是一件困难的事情:需要记录用户的登录和退出行为吗?需要记录用户修改账号信息的时间吗?还是只记录错误和异常就可以了?虽然我没有办法替你回答这些问题,但我可以向你提供一种将最新出现的日志消息以列表的形式存储到Redis里面的方法,这个列表可以帮助及你随时了解最新出现的日志都是什么样子的。

下面代码的log_recent()函数展示了将最新日志记录到Redis里面的方法:为了维持一个包含最新日志的列表,程序使用lpush命令将日志消息推入一个列表里面。之后,如果我们想要查看已有日志消息的话,那么可以使用lrange命令来取出列表中的消息。除了lpush之外,函数还加入了一些额外的代码,用于命名不同的日志消息队列,并根据文意的严重性对日志进行分级,如果你觉得自己并不需要这些附加功能的话,也可以将相关代码删除掉,只保留基本的日志添加功能。

</>复制代码

  1. #设置一个字典,将大部分日志的安全级别映射为字符串
  2. import logging
  3. import time
  4. SEVERITY={
  5. logging.DEBUG:"debug",
  6. logging.INFO:"info",
  7. logging.WARNING:"warning",
  8. logging.ERROR:"debug",
  9. logging.CRITICAL:"critical",
  10. }
  11. SEVERITY.update((name,name) for name in SEVERITY.values())
  12. def log_recent(conn,name,message,severity=logging.INFO,pipe=None):
  13. #尝试将日志的安全级别准还为简单的字符串
  14. severity=str(SEVERITY.get(severity,severity)).lower()
  15. #创建负责存储消息的键
  16. destination="recent:%s:%s"%(name,severity)
  17. #将当前时间添加到消息里面,用于记录消息的发送时间
  18. message=time.asctime()+" "+message
  19. #使用流水线来将通信往返次数降低为一次
  20. pipe=pipe or conn.pipeline()
  21. #将消息添加到日志列表的最前面
  22. pipe.lpush(destination,message)
  23. #对日志列表进行修建,让它只包含最新的100条消息
  24. pipe.ltrim(destination,0,99)
  25. #执行两个命令
  26. pipe.execute()

除了那些将日志的安全级别转换为字符串(如info和debug)的代码之外,log_recent()函数的定义非常简单:基本上就是一个lpush加上一个ltrim。现在你已经知道怎样记录最新出现的日志了,是时候来了解一下该如何记录最常出现(也是最重要的)日志消息了。

常见日志

如果实际运行一下log_recent()函数的话,你就会发现,尽管log_recent()函数非常适用于记录当前发生的事情,但它并不擅长告诉你哪些消息时重要的,哪些消息是不重要的。为了解决这个问题,我们可以让程序记录特定消息出现的频率,并根据出现频率的高低来决定消息的排列顺序,从而帮助我们找出最重要的消息。

下面代码的log_comon()函数展示了记录并轮询最常见日志消息的方法:程序会将消息作为成员存储的有序集合里面,并将消息出现的频率设置为成员的分值。为了确保我们看见的常见消息都是最新的,程序会以每小时一次的频率对消息进行轮换,并在轮换日志的时候保留上一个小时记录的常见消息,从而防止没有任何消息存在的情况出现。

</>复制代码

  1. import logging
  2. import time
  3. from datetime import datetime
  4. import redis
  5. SEVERITY={
  6. logging.DEBUG:"debug",
  7. logging.INFO:"info",
  8. logging.WARNING:"warning",
  9. logging.ERROR:"debug",
  10. logging.CRITICAL:"critical",
  11. }
  12. SEVERITY.update((name,name) for name in SEVERITY.values())
  13. def log_recent(conn,name,message,severity=logging.INFO,pipe=None):
  14. #尝试将日志的安全级别准还为简单的字符串
  15. severity=str(SEVERITY.get(severity,severity)).lower()
  16. #创建负责存储消息的键
  17. destination="recent:%s:%s"%(name,severity)
  18. #将当前时间添加到消息里面,用于记录消息的发送时间
  19. message=time.asctime()+" "+message
  20. #使用流水线来将通信往返次数降低为一次
  21. pipe=pipe or conn.pipeline()
  22. #将消息添加到日志列表的最前面
  23. pipe.lpush(destination,message)
  24. #对日志列表进行修建,让它只包含最新的100条消息
  25. pipe.ltrim(destination,0,99)
  26. #执行两个命令
  27. pipe.execute()
  28. def log_common(conn,name,message,severity=logging.INFO,timeout=5):
  29. # 尝试将日志的安全级别准还为简单的字符串
  30. severity = str(SEVERITY.get(severity, severity)).lower()
  31. #负责存储近期的常见日志消息的键
  32. destination = "common:%s:%s" % (name, severity)
  33. #因为程序每小时需要轮换一次日志,所以它使用一个键来记录当前所处的小时数
  34. start_key=destination+":start"
  35. # 使用流水线来将通信往返次数降低为一次
  36. pipe = conn.pipeline()
  37. end=time.time()+timeout
  38. while time.time()
  39. 因为记录常见日志的函数需要小心地处理上一小时收集的日志,所以它比记录最新日志的函数要复杂的多:程序会在一个watch/multi/exec事务里面,对记录了上一小时的常见日志的有序集合进行改名,并对记录了当前所处小时数的键进行更新。除此之外,程序还会降流水线对象传递给log_recent()函数,以此来减少记录常见日志和记录最新日志时,客户端与Redis服务器之间的通信往返次数。

  40. 通过最新日志和常见日志,我们现在已经知道怎样将系统的运行信息存储到Redis里面了,那么还有什么其他信息是适合存储在Redis里面的呢?

  41. </>复制代码

    1. 上一篇文章:Python--Redis实战:第四章:数据安全与性能保障:第8节:关于性能方面的注意事项
      下一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第2节:计数器和统计数据

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/42703.html

相关文章

  • Python--Redis实战五章使用Redis构建支持程序3:查找IP所属城市以及国家

    摘要:下面清单展示了地址所属地查找程序的具体实现方法将地址转换为分值以便执行命令查找唯一城市方法用来根据指定的分隔符将字符串进行分割。 上一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第2节:计数器和统计数据下一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第4节:服务的发现与配置 通过将统计数据和日志存储到Redis里面,我们...

    fengxiuping 评论0 收藏0
  • Python--Redis实战五章使用Redis构建支持程序2:计数器和统计数据

    摘要:清理程序通过对记录已知计数器的有序集合执行命令来一个接一个的遍历所有已知的计数器。 上一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第1节:使用Redis来记录日志下一篇文章:Python--Redis实战:第五章:使用Redis构建支持程序:第3节:查找IP所属城市以及国家 正如第三章所述,通过记录各个页面的被访问次数,我们可以根据基本的访问计数信息...

    sourcenode 评论0 收藏0

发表评论

0条评论

mdluo

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<