资讯专栏INFORMATION COLUMN

基于golang和redis实现轻量级队列

array_huang / 1889人阅读

摘要:基于和实现轻量级队列概述是基于提供的特性使用语言开发的一个简单易用的队列关于使用特性可以参考之前本人写过一篇很简陋的文章实现队列的灵感和设计是基于有赞延迟队列设计文章内容清晰而且很好理解但是没有提供源码在文章的最后也提到了一些未来架构方向不

Github: 基于golang和redis实现轻量级队列 1. 概述

gmq是基于redis提供的特性,使用go语言开发的一个简单易用的队列;关于redis使用特性可以参考之前本人写过一篇很简陋的文章Redis 实现队列;
gmq的灵感和设计是基于有赞延迟队列设计,文章内容清晰而且很好理解,但是没有提供源码,在文章的最后也提到了一些未来架构方向; gmq不是简单按照有赞延迟队列的设计实现功能,在它的基础上,做了一些修改和优化,主要如下:

功能上

多种任务模式,不单单只是延迟队列;例如:延迟队列,普通队列,优先级队列

架构上:

添加job由dispatcher调度分配各个bucket,而不是由timer

每个bucket维护一个timer,而不是所有bucket一个timer

timer每次扫描bucket到期job时,会一次性返回多个到期job,而不是每次只返回一个job

timer的扫描时钟由bucket中下个job到期时间决定,而不是每秒扫描一次

2. 应用场景

延迟任务

延迟任务,例如用户下订单一直处于未支付状态,半个小时候自动关闭订单

异步任务

异步任务,一般用于耗时操作,例如群发邮件等批量操作

超时任务

规定时间内(TTR)没有执行完毕或程序被意外中断,则消息重新回到队列再次被消费,一般用于数据比较敏感,不容丢失的

优先级任务

当多个任务同时产生时,按照任务设定等级优先被消费,例如a,b两种类型的job,优秀消费a,然后再消费b

3. gmq原理

3.1 核心概念

dispatcher任务调度器,负责将job分配到bucket或直接推送到ready queue

bucket任务桶,用于存放延迟任务;每个bucket会维护一个timer定时器,然后将到期的job推送到ready queue

ready queue存放已准备好的job,等待被consumer消费

3.2 延迟时间delay

当job.delay>0时,job会被分配到bucket中,bucket会有周期性扫描到期job,如果到期,job会被bucket移到ready queue,等待被消费

当job.delay=0时,job会直接加到ready queue,等待被消费

3.3 执行超时时间TTR

参考第一个图的流程,当job被消费者读取后,如果job.TTR>0,即job设置了执行超时时间,那么job会在读取后会被添加到TTRBucket(专门存放设置了超时时间的job),并且设置job.delay = job.TTR,如果在TTR时间内没有得到消费者ack确认然后删除job,job将在TTR时间之后添加到ready queue,然后再次被消费(如果消费者在TTR时间之后才请求ack,会得到失败的响应)

3.3 确认机制

主要和TTR的设置有关系,确认机制可以分为两种:

当job.TTR=0时,消费者pop出job时,即会自动删除job pool中的job元数据

当job.TTR>0时,即job执行超时时间,这个时间是指用户pop出job时开始到用户ack确认删除结束这段时间,如果在这段时间没有ACK,job会被再次加入到ready queue,然后再次被消费,只有用户调用了ACK,才会去删除job pool中job元数据

4. 安装 4.1 源码运行

配置文件位于gmq/conf.ini,可以根据自己项目需求修改配置

git clone https://github.com/wuzhc/gmq.git
cd gmq
go get -u -v github.com/kardianos/govendor # 如果有就不需要安装了
govendor sync
go run main.go
# go build # 可编译成可执行文件
3.2 执行文件运行
# 启动
./gmq start
# 停止
./gmq stop

# 守护进程模式启动,不输出日志到console
nohup ./gmq start >/dev/null 2>&1  &
# 守护进程模式下查看日志输出(配置文件conf.ini需要设置target_type=file,filename=gmq.log)
tail -f gmq.log
5. 客户端

目前只实现python,go,php语言的客户端的demo,参考:https://github.com/wuzhc/demo/tree/master/mq

运行
# php
# 生产者
php producer.php
# 消费者
php consumer.php

# python
# 生产者
python producer.py
# 消费者
python consumer.py
一条消息结构
{
    "id": "xxxx",     # 任务id,这个必须是一个唯一值,将作为redis的缓存键
    "topic": "xxx",  # topic是一组job的分类名,消费者将订阅topic来消费该分类下的job
    "body": "xxx",   # 消息内容
    "delay": "111",  # 延迟时间,单位秒
    "TTR": "11111",  # 执行超时时间,单位秒
    "status": 1,     # job执行状态,该字段由gmq生成
    "consumeNum":1,  # 被消费的次数,主要记录TTR>0时,被重复消费的次数,该字段由gmq生成
}
延迟任务
 $data = [
        "id"    => "xxxx_id" . microtime(true) . rand(1,999999999),
        "topic" => ["topic_xxx"],
        "body"  => "this is a rpc test",
        "delay" => "1800", // 单位秒,半个小时后执行
        "TTR"   => "0"
    ];
超时任务
 $data = [
        "id"    => "xxxx_id" . microtime(true) . rand(1,999999999),
        "topic" => ["topic_xxx"],
        "body"  => "this is a rpc test",
        "delay" => "0", 
        "TTR"   => "100" // 100秒后还未得到消费者ack确认,则再次添加到队列,将再次被被消费
    ];
异步任务
$data = [
        "id"    => "xxxx_id" . microtime(true) . rand(1,999999999),
        "topic" => ["topic_xxx"],
        "body"  => "this is a rpc test",
        "delay" => "0", 
        "TTR"   => "0" 
    ];
优先级任务
$data = [
        "id"    => "xxxx_id" . microtime(true) . rand(1,999999999),
        "topic" => ["topic_A","topic_B","topic_C"], //优先消费topic_A,消费完后消费topic_B,最后再消费topic_C
        "body"  => "this is a rpc test",
        "delay" => "0", 
        "TTR"   => "0" 
    ];
6. web监控

gmq提供了一个简单web监控平台(后期会提供根据job.Id追踪消息的功能),方便查看当前堆积任务数,默认监听端口为8000,例如:http://127.0.0.1:8000, 界面如下:

后台模板来源于https://github.com/george518/...

7. 遇到问题

以下是开发遇到的问题,以及一些粗糙的解决方案

7.1 安全退出

如果强行中止gmq的运行,可能会导致一些数据丢失,例如下面一个例子:

如果发生上面的情况,就会出现job不在bucket中,也不在ready queue,这就出现了job丢失的情况,而且将没有任何机会去删除job pool中已丢失的job,长久之后job pool可能会堆积很多的已丢失job的元数据;所以安全退出需要在接收到退出信号时,应该等待所有goroutine处理完手中的事情,然后再退出

7.1.1 gmq退出流程


首先gmq通过context传递关闭信号给dispatcher,dispatcher接收到信号会关闭dispatcher.closed,每个bucket会收到close信号,然后先退出timer检索,再退出bucket,dispatcher等待所有bucket退出后,然后退出

dispatcher退出顺序流程: timer -> bucket -> dispatcher

7.1.2 注意

不要使用kill -9 pid来强制杀死进程,因为系统无法捕获SIGKILL信号,导致gmq可能执行到一半就被强制中止,应该使用kill -15 pid,kill -1 pidkill -2 pid,各个数字对应信号如下:

9 对应SIGKILL

15 对应SIGTERM

1 对应SIGHUP

2 对应SIGINT

信号参考https://www.jianshu.com/p/5729fc095b2a

7.2 智能定时器

每一个bucket都会维护一个timer,不同于有赞设计,timer不是每秒轮询一次,而是根据bucket下一个job到期时间来设置timer的定时时间 ,这样的目的在于如果bucket没有job或job到期时间要很久才会发生,就可以减少不必要的轮询;

timer只有处理完一次业务后才会重置定时器;,这样的目的在于可能出现上一个时间周期还没执行完毕,下一个定时事件又发生了

如果到期的时间很相近,timer就会频繁重置定时器时间,就目前使用来说,还没出现什么性能上的问题

7.3 原子性问题

我们知道redis的命令是排队执行,在一个复杂的业务中可能会多次执行redis命令,如果在大并发的场景下,这个业务有可能中间插入了其他业务的命令,导致出现各种各样的问题;
redis保证整个事务原子性和一致性问题一般用multi/execlua脚本,gmq在操作涉及复杂业务时使用的是lua脚本,因为lua脚本除了有multi/exec的功能外,还有Pipepining功能(主要打包命令,减少和redis server通信次数),下面是一个gmq定时器扫描bucket集合到期job的lua脚本:

-- 获取到期的50个job
local jobIds = redis.call("zrangebyscore",KEYS[1], 0, ARGV[4], "withscores", "limit", 0, 50)
local res = {}
for k,jobId in ipairs(jobIds) do 
    if k%2~=0 then
        local jobKey = string.format("%s:%s", ARGV[3], jobId)
        local status = redis.call("hget", jobKey, "status")
        -- 检验job状态
        if tonumber(status) == tonumber(ARGV[1]) or tonumber(status) == tonumber(ARGV[2]) then
            -- 先移除集合中到期的job,然后到期的job返回给timer
            local isDel = redis.call("zrem", KEYS[1], jobId)
            if isDel == 1 then
                table.insert(res, jobId)
            end
        end
    end
end

local nextTime
-- 计算下一个job执行时间,用于设置timer下一个时钟周期
local nextJob = redis.call("zrange", KEYS[1], 0, 0, "withscores")
if next(nextJob) == nil then
    nextTime = -1
else
    nextTime = tonumber(nextJob[2]) - tonumber(ARGV[4])
    if nextTime < 0 then
        nextTime = 1
    end
end

table.insert(res,1,nextTime)
return res
7.4 redis连接池

可能一般phper写业务很少会接触到连接池,其实这是由php本身所决定他应用不大,当然在php的扩展swoole还是很有用处的
gmq的redis连接池是使用gomodule/redigo/redis自带连接池,它带来的好处是限制redis连接数,通过复用redis连接来减少开销,另外可以防止tcp被消耗完,这在生产者大量生成数据时会很有用

// gmq/mq/redis.go
Redis = &RedisDB{
    Pool: &redis.Pool{
        MaxIdle:     30,    // 最大空闲链接
        MaxActive:   10000, // 最大链接
        IdleTimeout: 240 * time.Second, // 空闲链接超时
        Wait:        true, // 当连接池耗尽时,是否阻塞等待
        Dial: func() (redis.Conn, error) {
            c, err := redis.Dial("tcp", "127.0.0.1:6379", redis.DialPassword(""))
            if err != nil {
                return nil, err
            }
            return c, nil
        },
        TestOnBorrow: func(c redis.Conn, t time.Time) error {
            if time.Since(t) < time.Minute {
                return nil
            }
            _, err := c.Do("PING")
            return err
        },
    },
}
8. 注意问题

job.id在job pool是唯一的,它将作为redis的缓存键;gmq不自动为job生成唯一id值是为了用户可以根据自己生成的job.id来追踪job情况,如果job.id是重复的,push时会报重复id的错误

bucket数量不是越多越好,一般来说,添加到ready queue的速度取决与redis性能,而不是bucket数量

9. 使用中可能出现的问题 9.1 客户端出现大量的TIME_WAIT状态,并且新的连接被拒绝
netstat -anp | grep 9503 | wc -l
tcp        0      0 10.8.8.188:41482        10.8.8.185:9503         TIME_WAIT   -                   

这个是正常现象,由tcp四次挥手可以知道,当接收到LAST_ACK发出的FIN后会处于TIME_WAIT状态,主动关闭方(客户端)为了确保被动关闭方(服务端)收到ACK,会等待2MSL时间,这个时间是为了再次发送ACK,例如被动关闭方可能因为接收不到ACK而重传FIN;另外也是为了旧数据过期,不影响到下一个链接,; 如果要避免大量TIME_WAIT的连接导致tcp被耗尽;一般方法如下:

使用长连接

配置文件,网上很多教程,就是让系统尽快的回收TIME_WAIT状态的连接

使用连接池,当连接池耗尽时,阻塞等待,直到回收再利用

10. 相关链接

有赞延迟队列设计

Redis 实现队列

11. 未来计划

支持安全传输层协议(TLS)

除了json外,可支持protobuf序列化

web监控工具提供消息追踪功能

增加分布式部署方案

增加数据统计收集器

可持久化到磁盘

支持http协议

增加调试和分析 pprof

12. 项目地址

基于golang和redis实现轻量级队列

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/37244.html

相关文章

  • Delayer 基于 Redis 的延迟消息队列中间件

    摘要:基于的延迟消息队列中间件,采用开发,支持等多种语言客户端。参考有赞延迟队列设计中的部分设计,优化后实现。会员到期前天,短信通知续费。其他针对某个任务,延迟执行功能的需求。服务器端定时使用连接池并行将中到期的放入对应的中,供客户端取出。 Delayer 基于 Redis 的延迟消息队列中间件,采用 Golang 开发,支持 PHP、Golang 等多种语言客户端。 参考 有赞延迟队列设计...

    Xufc 评论0 收藏0
  • Delayer 基于 Redis 的延迟消息队列中间件

    摘要:基于的延迟消息队列中间件,采用开发,支持等多种语言客户端。参考有赞延迟队列设计中的部分设计,优化后实现。会员到期前天,短信通知续费。其他针对某个任务,延迟执行功能的需求。服务器端定时使用连接池并行将中到期的放入对应的中,供客户端取出。 Delayer 基于 Redis 的延迟消息队列中间件,采用 Golang 开发,支持 PHP、Golang 等多种语言客户端。 参考 有赞延迟队列设计...

    Ashin 评论0 收藏0
  • 你确定不来了解一下Redis列表的原理吗

    摘要:前言在上一章中我们介绍了的一些内部原理在这一章中我们再来讨论在五种数据结构中的基本使用和一些内部实现基本介绍的呢相当于中的也是双向链表具有一些和同样的特征比如插入和删除一条很快时间复杂度为获取头结点和尾节点也很快时间复杂度也为随机读取则相对 前言 在上一章中我们介绍了 String 的一些内部原理,在这一章中我们再来讨论在五种数据结构中 List 的基本使用和一些内部实现. 基本介绍 ...

    big_cat 评论0 收藏0
  • 你确定不来了解一下Redis列表的原理吗

    摘要:前言在上一章中我们介绍了的一些内部原理在这一章中我们再来讨论在五种数据结构中的基本使用和一些内部实现基本介绍的呢相当于中的也是双向链表具有一些和同样的特征比如插入和删除一条很快时间复杂度为获取头结点和尾节点也很快时间复杂度也为随机读取则相对 前言 在上一章中我们介绍了 String 的一些内部原理,在这一章中我们再来讨论在五种数据结构中 List 的基本使用和一些内部实现. 基本介绍 ...

    elliott_hu 评论0 收藏0
  • MQ对比之RabbitMQ & Redis

    摘要:消息队列选择是一个由开发的的开源实现的产品,是一个消息代理,从生产者接收消息并传递消息至消费者,期间可根据规则路由缓存持久化消息。绑定队列和交换机之间的关系。根据消息的属性和的属性来转发消息。 消息队列选择:RabbitMQ & Redis RabbitMQ RabbitMQ是一个由erlang开发的AMQP(Advanced Message Queue )的开源实现的产品,Rabbi...

    PumpkinDylan 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<