资讯专栏INFORMATION COLUMN

Node.js + ELK 日志规范

tuomao / 592人阅读

摘要:日志规范一般前端开发同学,对日志其实不太敏感,毕竟前端大多数情况下,不太关心日志。本文主要梳理了目前我们团队在开发中日志方面存在的问题,以及通过统一日志规范,希望达到什么样的效果。日志格式字段日志格式统一采用,便于解析处理。

nodejs 日志规范

一般前端开发同学,对日志其实不太敏感,毕竟前端大多数情况下,不太关心日志。即使有,也可能调用一些第三方的统计,比如百度统计或者别的等。在 Node.js(下文中简称node) 推进过程中,也发现我们平常打日志太随意,该打的日志没有打,打的一些关键日志缺少必要上下文信息,导致在线上定位问题的时候很困难。

本文主要梳理了目前我们团队在nodejs开发中日志方面存在的问题,以及通过统一日志规范,希望达到什么样的效果。

问题

node日志不规范,打日志太随意

没有良好的日志格式、约定的字段,在 ELK 里不能很好的解析&检索 (PS: ELK文章在路上)

由于node对接的后端服务化,调用链不清晰,定位问题困难

数据部门对node日志的使用,没有明确的记录。node修改了日志,导致统计数据异常

目标

规范日志打印字段&格式,便于 ELK 检索

增强node上下游(nginx/后端)日志格式,加入惟一 requestId,方便微服务下定位问题

统计应用运行情况,性能数据

维护数据部门对node日志的使用情况

实现方案 日志类型

参考一些日志的最佳实践,目前将node日志分为如下几种类型(scope):

desc: 系统启动、运行过程中,打的日志,表明系统的一些启动日志、启动参数等,也包含在 不能 捕获到http上下文的时候,打的日志

stat: 系统性能统计日志,应用会定时收集一些性能信息,便于查询应用当前状态

visit: 每个http请求相关的日志,会包含惟一的 requestId,定位该请求相关的所有日志

biz: 业务数据相关日志,主要提供给数据统计使用

日志级别

只使用 FATALERRORWARNINFODEBUG 等级。


FATAL - 导致程序退出的严重系统级错误,不可恢复,当错误发生时,系统管理员需要立即介入,一般应用代码 使用。

ERROR - 运行时异常以及预期之外的错误,也需要立即处理,但紧急程度低于FATAL,当错误发生时,影响了程序的正确执行。需要注意的是这两种级别属于服务自己的错误,需要管理员介入,用户输入出错不属于此分类,请求后端、读文件、数据库等超时、返回错误结构,属于ERROR

WARN - 预期之外的运行时状况,表示系统可能出现问题。对于那些目前还不是错误,然而不及时处理也会变成错误的情况,也可以记为WARN,如磁盘过低。

INFO - 有意义的事件信息,记录程序正常的运行状态,比如收到请求,成功执行。通过查看INFO,可以快速定位WARN,ERROR, FATAL。INFO不宜过多,通常情况下不超过 DEBUG 的10%。

DEBUG - 与程序运行时的流程相关的详细信息以及当前变量状态。

日志格式/字段

日志格式统一采用 JSON ,便于 ELK 解析处理。

日志中的各个字段的值,都应该尽量使用 英文 ,不使用中文。

日志具体字段,分为 基础数据 + 扩展数据。基础数据,是底层日志框架自带的,所有日志都会包含。扩展数据,不同类型的日志,包含不同的字段。

日志基础数据

目前使用的 node-bunyan 日志库,官方文档,基础字段包含如下:

v: integer 。bunyan的日志版本号

level: integer。日志级别对应的数字

name: string。服务名

hostname: string。主机名

pid: integer。进程号

time: string。UTC 格式的日期

msg: string。日志主体信息

日志扩展数据

下面定义的各个数据类型的扩展数据,不是 全部的字段,仅包含该日志类型下,必需的字段。这些必需的扩展字段,需要在 ELK 中建立索引,方便定位各种问题。

    desc类型日志,扩展字段:TODO

    stat类型日志,扩展字段:{ perf: {rss: xxxx, cpu: xxx} }

    visit类型日志,扩展字段:

    biz

{
    /////////////  基础数据  ////////
    v: 1,
    level: 20,
    ///////////// 扩展字段  ////////
    // 标志日志类型
    scope: "visit",
    //事件类型:在 visit 的日志类型下,还会细分不同的事件,比如 client-req、client-res、 普通trace、请求后端service-start, service-end, service-err等。
    event: "trace",
    //客户端ID,追踪用户、设备会话。在web端,可以是长期的cookie;在APP端,可以是device-id等
    rrdid: "",
    //本次请求的惟一ID,串联本次请求的所有相关日志
    req_id: "some-uuid-for-request",
    //本次请求的用户ID
    uid: "",
    //本次请求的客户端相关数据,通过  ctx.logger 打日志时,自动加上
    d: {
        url: "/some/path");,
        //客户端ip
        ip: "10.138.10.1",
        //客户端的 userAgent
        ua: ""
    },
    //本次node请求的处理时间,毫秒
    tm: 500,
    //该日志相关的上下文数据,尽量拼成一个字符串,放在 extra 里
    extra: "",

    //ERROR 级别日志,最好包含error相关信息,比如请求后端相关参数等
    err: {
        msg: "",
        stack: ""
    },

    //调用后端服务相关参数和响应
    service_req: {
        host: "",
        path: "",
        payload: ""
    },
    service_res: {
        //http状态码
        http_code: 200,
        //响应时间
        tm: 100,
        //响应的body
        body: "",
        //异常信息
        err: ""
    }
}
什么时候打日志

开发者目前只关心 visit 类型的日志,即和某一次http请求相关联的日志。descstat类型的日志,统一由开发框架封装后实现,业务开发 不用 关心。下面讲的,都是针对 visit 类型的日志。

一次http请求,会打出一系列相关联的日志。在node层,通常一次请求,会进一步转发给N个后端服务,然后对后端数据进行一些处理、合并等操作,最后渲染页面或是输出JSON。因此,一次请求相关的日志,大体分为以下几种 event

client-req: client请求到达node层,统一由框架打日志,开发 关心

service-start: node对某个后端服务发起请求,由通用请求库负责打日志,开发 关心

service-end: node请求某个后端服务结束,由通用请求库负责打日志,开发 关心

service-err: node请求后端服务异常,由通用请求库负责打日志,开发 关心。调用后端服务异常,日志级别为 WARN不是 ERROR

trace: node中业务层打的日志,如果异常,能帮助定位本次请求相关问题

client-res: 结束client的请求,打印本次请求的http code,本次请求处理时间等,由框架统一打,开发 关心

开发同学在打日志时,应该谨慎的选择级别,INFO(含)级别以上,都应该能对定位问题、具体业务统计需求有要求,才能使用。大部分情况下,可以使用 DEBUG 级别,线上 不会 开启DEBUG级别。

具体方法调用

针对打印 visit类型的日志,调用 ctx.logger(基于Koa的框架) 属性打日志,推荐参数都传递 JSON,具体方法如下:

ctx.logger.debug({msg: "", "extra": "a=1 b=2 c=value"});
ctx.logger.info({msg: "xxx", "extra": "其他的额外字段"});
ctx.logger.warn({msg: "xxx", "extra": "额外上下文数据"});
//ERROR级别日志,应该提供 Error 对象
ctx.logger.error({msg: "xxx", err: error, extra: ""});

注意1,额外的参数,推荐存放在 extra 字段中,统一拼成 string;如果确实有必要多带带出每个字段, 禁止 额外的参数占用上述通用字段名!!

注意2,基础数据中的msg字段,禁止 包含具体的上下文数据,和该日志相关的上下文数据,应该拼成字符串,放在多带带的 extra 字段中。比如,某个用户登录接口,希望统计调用次数,可以这样打印:

ctx.logger.info({msg: "user login", "extra": "mobile=18712387101 code=xxxx k3=value3"});
参考资料

最佳日志实践(v2.0)

Node 框架接入 ELK 实践总结

大搜车NodeJS日志规范化与分析监控

请自查!这些优秀日志实践准则,你做到了几点?

日志最佳实践

When to use the different log levels

Java 日志管理最佳实践

关于日志打印的几点建议以及非最佳实践

日志记录最佳实践

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/6964.html

相关文章

  • 超长干货:基于Docker的DevOps CI/CD实践——来自iHealth的分享

    摘要:在猫屎氤氲的雾气里角仰望天花板,手机微信提醒这次构建成功或失败,并附带污言秽语。这时他可以开始往工位走,坐下时,微信又会提醒本次部署到成功或失败。与企业微信的集成在决定使用之前,需要知道的是,是一个高度依赖社区的项目。 前言 相信我,一切事情的发生都是赶鸭子上架,没有例外。人类所有伟大的变革都是迫不得已,可又是那么顺其自然。比如容器(docker)技术的诞生,比如箭在弦上的创业,比如野...

    Dongjie_Liu 评论0 收藏0
  • 使用ELK处理Docker日志(二)

    摘要:环境要求由,和容器组成使用日志收集器将日志发送到。若使用自己的部署,分析和可视化日志的概念保持不变。日志可视化以索引数据为基础创建丰富的可视化和仪表板的能力而闻名,事实上,得到这些数据并不容易。 昨天小数分享的使用ELK处理Docker日志(一)很受欢迎,今天迫不及待的带来第二篇,侧重于分析和可视化,期待给您带来帮助:) 嘘,听说数人云工程师们在奥斯汀DockerCON2017买了D...

    LiveVideoStack 评论0 收藏0
  • ELK搭建分布式日志系统

    摘要:对各个服务的日志进行采集过滤推送。存储传送的结构化数据,提供给。提供用户页面进行,数据展示和分析形成图表等。 ELK 简介 ELK分别表示:Elasticsearch , Logstash, Kibana 。他们组成了一套完整的日志系统的解决方案。 Logstash 对各个服务的日志进行采集、过滤、推送。 Elasticsearch 存储Logstash传送的结构化数据,提供给Kib...

    fredshare 评论0 收藏0
  • 如何在 Rancher 中统一管理容器日志

    摘要:在中默认开启端口用于侦听发送过来的日志报文。至此,在中如何部署一套完整系统已经介绍完了,下面我将介绍如何将容器日志发送到中。下面我将介绍如何收集容器日志。目前日志显的杂乱无序。,现在我们再去查看发现我们的容器日志已经展示在这里了。 相信大家对于容器和 docker 这个概念并不陌生,很高兴的是 docker 为我们提供了多种log-driver。 showImg(https://se...

    whinc 评论0 收藏0
  • Java日志正确使用姿势

    摘要:但是往往越简单的东西越容易让我们忽视,从而导致一些不该有的发生,作为一名严谨的程序员,怎么能让这种事情发生呢所以下面我们就来了解一下关于日志的那些正确使用姿势。级别表示出现了严重错误,程序将会中断执行。 前言 关于日志,在大家的印象中都是比较简单的,只须引入了相关依赖包,剩下的事情就是在项目中尽情的打印我们需要的信息了。但是往往越简单的东西越容易让我们忽视,从而导致一些不该有的bug发...

    UCloud 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<