精华内容
下载资源
问答
  • redis能否做数据库用取决于如下几个条件: (推荐学习:Redis视频教程)1:数据量,毕竟内存数据库,...3:查询的效率,对范围查询等,是否能转换高效的hash索引查询redis能不能拿来当数据库,取决于你想要存储什么...

    f4daefd6adba9a245dc7d782251d75ac.png

    redis能否做数据库用取决于如下几个条件: (推荐学习:Redis视频教程)

    1:数据量,毕竟内存数据库,还是受限于内存的容量,虽然可以redis可以持久化。

    2:数据的结构,是否能够将关系型数据结构都转换为key/value的形式。

    3:查询的效率,对范围查询等,是否能转换为高效的hash索引查询

    redis能不能拿来当数据库,取决于你想要存储什么数据:

    如果你打算存储一些临时数据,数据规模不大,不需要太复杂的查询,但是对性能的要求比较高,那可以拿redis当数据库使用,否则别拿来当数据库用。

    1. 像上面提到的,redis的持久化有问题,如果使用aof模式,并且fsync always,则性能比mysql 还低,如果你喜欢redis 方便的数据结构而对性能要求不高,或者性能要求很高,但允许一定程度的丢失数据,则可以用redis做为数据库。

    2.redis 是内存数据库, 内存写满后,数据不会存储到硬盘上(VM 不稳定,diskstore未启用),如果你内存足够大,则可以用redis作为数据库。

    redis是一种k/v的内存数据库,适合小数据量的存储以及实时要求高的地方,但是不适合做完整数据库,完整数据库基本上都有一套详细解决方案,基本上没有做了的,比如mysql。

    项目里用到的redis是用来做缓存的,设置过期时间,到时就自动清掉。数据库还是用mysql等这种成熟的方案。

    如果你非要用一种nosql来做数据库,推荐你用Mongodb。

    这种KV存储完全不具备数据库所能提供的数据安全性保障。

    所以还是用来做缓存比较合适。

    redis做数据库不靠谱,不是所有的数据都是立即回写磁盘的。

    展开全文
  • 文章目录1 引言1.1 Redis中List队列1.1.1 简单使用1.1.2 解决cpu空转问题1.1.3 Redis阻塞式拉取1.2 Redis发布订阅1.2.1 简单使用1.2.2 发布订阅的缺点1.3 Redis中的Stream1.3.1 简单使用1.3.2 stream阻塞拉取1.3.3 ...


    本文转载于: https://mp.weixin.qq.com/s/uhMrqR__6qgpl7vrE_otTQ

    1 引言

    我经常听到很多人讨论,关于把 Redis 当作队列来用是否合适的问题。
    有些人表示赞成,他们认为 Redis 很轻量,用作队列很方便。
    也些人则反对,认为 Redis数据,最好还是用专业的队列中间件更稳妥

    究竟哪种方案更好呢?
    这篇文章,就聊一聊把 Redis 当作队列,究竟是否合适这个问题。
    从简单到复杂,一步步梳理其中的细节,把这个问题真正的讲清楚。
    看完这篇文章后对这个问题你会有全新的认识。
    在文章的最后,还会告诉你关于技术选型的思路,文章有点长,希望你可以耐心读完

    1.1 Redis中List队列

    1.1.1 简单使用

    从最简单的开始:List 队列
    首先,我们先从最简单的场景开始讲起
    如果你的业务需求足够简单,想把 Redis 当作队列来使用,肯定最先想到的就是使用 List 这个数据类型
    因为List底层的实现就是一个链表,在头部和尾部操作元素,时间复杂度都是 O(1),这意味着它非常符合消息队列的模型。

    如果把 List 当作队列,你可以这么来用。

    生产者使用 LPUSH 发布消息:

    127.0.0.1:6379> LPUSH queue msg1
    (integer) 1
    127.0.0.1:6379> LPUSH queue msg2
    (integer) 2
    

    消费者这一侧,使用 RPOP 拉取消息:

    127.0.0.1:6379> RPOP queue
    "msg1"
    127.0.0.1:6379> RPOP queue
    "msg2"
    

    这个模型非常简单,也很容易理解。
    在这里插入图片描述
    但这里有个小问题,当队列中已经没有消息了,消费者在执行 RPOP 时,会返回 NULL

    127.0.0.1:6379> RPOP queue
    (nil)   // 没消息了
    

    而我们在编写消费者逻辑时,一般是一个死循环,这个逻辑需要不断地从队列中拉取消息进行处理,伪代码一般会这么写:

    while true:
        msg = redis.rpop("queue")
        // 没有消息,继续循环
        if msg == null:
            continue
        // 处理消息
        handle(msg)
    

    如果此时队列为空,那消费者依旧会频繁拉取消息,这会造成CPU 空转,不仅浪费 CPU 资源,还会对 Redis 造成压力。

    1.1.2 解决cpu空转问题

    怎么解决这个问题呢?
    也很简单,当队列为空时,我们可以休眠一会,再去尝试拉取消息。代码可以修改成这样:

    while true:
        msg = redis.rpop("queue")
        // 没有消息,休眠2s
        if msg == null:
            sleep(2)
            continue
        // 处理消息        
        handle(msg)
    

    这就解决了 CPU 空转问题
    这个问题虽然解决了,但又带来另外一个问题:当消费者在休眠等待时,有新消息来了,那消费者处理新消息就会存在延迟
    假设设置的休眠时间是 2s,那新消息最多存在 2s 的延迟。

    1.1.3 Redis阻塞式拉取

    要想缩短这个延迟,只能减小休眠的时间。但休眠时间越小,又有可能引发 CPU 空转问题。
    鱼和熊掌不可兼得
    那如何做,既能及时处理新消息,还能避免 CPU 空转呢?
    Redis 是否存在这样一种机制:如果队列为空,消费者在拉取消息时就阻塞等待,一旦有新消息过来,就通知我的消费者立即处理新消息呢?
    幸运的是,Redis 确实提供了「阻塞式」拉取消息的命令:BRPOP / BLPOP,这里的 B 指的是阻塞Block
    在这里插入图片描述

    现在,你可以这样来拉取消息了:

    while true:
        // 没消息阻塞等待,0表示不设置超时时间
        msg = redis.brpop("queue", 0)
        if msg == null:
            continue
        // 处理消息
        handle(msg)
    

    使用 BRPOP 这种阻塞式方式拉取消息时,还支持传入一个超时时间,如果设置为 0,则表示不设置超时,直到有新消息才返回,否则会在指定的超时时间后返回 NULL
    这个方案不错,既兼顾了效率,还避免了 CPU 空转问题,一举两得

    注意:如果设置的超时时间太长,这个连接太久没有活跃过,可能会被 Redis Server 判定为无效连接,之后 Redis Server 会强制把这个客户端踢下线。所以,采用这种方案,客户端要有重连机制。

    解决了消息处理不及时的问题,你可以再思考一下,这种队列模型,有什么缺点?

    • 不支持重复消费:消费者拉取消息后,这条消息就从 List 中删除了,无法被其它消费者再次消费,即不支持多个消费者消费同一批数据
    • 消息丢失:消费者拉取到消息后,如果发生异常宕机,那这条消息就丢失了

    第一个问题是功能上的,使用 List 做消息队列,它仅仅支持最简单的,一组生产者对应一组消费者,不能满足多组生产者和消费者的业务场景
    第二个问题就比较棘手了,因为从 ListPOP 一条消息出来后,这条消息就会立即从链表中删除了。也就是说,无论消费者是否处理成功,这条消息都没办法再次消费了。这也意味着,如果消费者在处理消息时异常宕机,那这条消息就相当于丢失了。

    1.2 Redis发布订阅

    1.2.1 简单使用

    发布/订阅模型:Pub/Sub
    从名字就能看出来,这个模块是 Redis 专门是针对发布/订阅这种队列模型设计的
    它正好可以解决前面提到的第一个问题:重复消费
    即多组生产者、消费者的场景,我们来看它是如何做的。
    Redis 提供了 PUBLISH / SUBSCRIBE 命令,来完成发布、订阅的操作。
    在这里插入图片描述
    假设你想开启 2 个消费者,同时消费同一批数据,就可以按照以下方式来实现。
    首先,使用 SUBSCRIBE 命令,启动 2 个消费者,并订阅同一个队列。

    // 2个消费者 都订阅一个队列
    127.0.0.1:6379> SUBSCRIBE queue
    Reading messages... (press Ctrl-C to quit)
    1) "subscribe"
    2) "queue"
    3) (integer) 1
    

    此时,2 个消费者都会被阻塞住,等待新消息的到来。
    之后,再启动一个生产者,发布一条消息。

    127.0.0.1:6379> PUBLISH queue msg1
    (integer) 1
    

    这时,2 个消费者就会解除阻塞,收到生产者发来的新消息。

    127.0.0.1:6379> SUBSCRIBE queue
    // 收到新消息
    1) "message"
    2) "queue"
    3) "msg1"
    

    看到了么,使用 Pub/Sub 这种方案,既支持阻塞式拉取消息,还很好地满足了多组消费者,消费同一批数据的业务需求。
    除此之外,Pub/Sub 还提供了匹配订阅模式,允许消费者根据一定规则,订阅多个自己感兴趣的队列

    // 订阅符合规则的队列
    127.0.0.1:6379> PSUBSCRIBE queue.*
    Reading messages... (press Ctrl-C to quit)
    1) "psubscribe"
    2) "queue.*"
    3) (integer) 1
    

    这里的消费者,订阅了 queue.*相关的队列消息。
    之后,生产者分别向 queue.p1queue.p2 发布消息。

    127.0.0.1:6379> PUBLISH queue.p1 msg1
    (integer) 1
    127.0.0.1:6379> PUBLISH queue.p2 msg2
    (integer) 1
    

    这时再看消费者,它就可以接收到这 2 个生产者的消息了。

    127.0.0.1:6379> PSUBSCRIBE queue.*
    Reading messages... (press Ctrl-C to quit)
    ...
    // 来自queue.p1的消息
    1) "pmessage"
    2) "queue.*"
    3) "queue.p1"
    4) "msg1"
    
    // 来自queue.p2的消息
    1) "pmessage"
    2) "queue.*"
    3) "queue.p2"
    4) "msg2"
    

    在这里插入图片描述
    我们可以看到,Pub/Sub 最大的优势就是,支持多组生产者、消费者处理消息。

    1.2.2 发布订阅的缺点

    讲完了它的优点,那它有什么缺点呢?
    其实,Pub/Sub 最大问题是:丢数据

    如果发生以下场景,就有可能导致数据丢失:

    • 消费者下线
    • Redis 宕机
    • 消息堆积

    究竟是怎么回事?
    这其实与 Pub/Sub 的实现方式有很大关系。
    Pub/Sub 在实现时非常简单,它没有基于任何数据类型,也没有做任何的数据存储,它只是单纯地为生产者、消费者建立数据转发通道,把符合规则的数据,从一端转发到另一端。

    一个完整的发布、订阅消息处理流程是这样的:

    • 消费者订阅指定队列,Redis 就会记录一个映射关系:队列->消费者
    • 生产者向这个队列发布消息,那 Redis 就从映射关系中找出对应的消费者,把消息转发给它

    在这里插入图片描述
    看到了么,整个过程中,没有任何的数据存储,一切都是实时转发的。
    这种设计方案,就导致了上面提到的那些问题。
    例如,如果一个消费者异常挂掉了,它再重新上线后,只能接收新的消息,在下线期间生产者发布的消息,因为找不到消费者,都会被丢弃掉。
    如果所有消费者都下线了,那生产者发布的消息,因为找不到任何一个消费者,也会全部丢弃
    所以,当你在使用 Pub/Sub 时,一定要注意:消费者必须先订阅队列,生产者才能发布消息,否则消息会丢失
    这也是前面讲例子时,我们让消费者先订阅队列,之后才让生产者发布消息的原因。
    另外,因为 Pub/Sub 没有基于任何数据类型实现,所以它也不具备数据持久化的能力。
    也就是说,Pub/Sub 的相关操作,不会写入到 RDBAOF 中,当 Redis 宕机重启,Pub/Sub 的数据也会全部丢失。

    最后,我们来看 Pub/Sub 在处理消息积压时,为什么也会丢数据?
    当消费者的速度,跟不上生产者时,就会导致数据积压的情况发生。
    如果采用 List 当作队列,消息积压时,会导致这个链表很长,最直接的影响就是,Redis 内存会持续增长,直到消费者把所有数据都从链表中取出。
    Pub/Sub 的处理方式却不一样,当消息积压时,有可能会导致消费失败和消息丢失!

    这是怎么回事?
    还是回到 Pub/Sub 的实现细节上来说。
    每个消费者订阅一个队列时,Redis 都会在 Server 上给这个消费者在分配一个缓冲区,这个缓冲区其实就是一块内存。
    当生产者发布消息时,Redis 先把消息写到对应消费者的缓冲区中。
    之后,消费者不断地从缓冲区读取消息,处理消息。

    在这里插入图片描述
    但是,问题就出在这个缓冲区
    因为这个缓冲区其实是有上限的(可配置),如果消费者拉取消息很慢,就会造成生产者发布到缓冲区的消息开始积压,缓冲区内存持续增长。
    如果超过了缓冲区配置的上限,此时,Redis 就会强制把这个消费者踢下线
    这时消费者就会消费失败,也会丢失数据。

    如果你有看过 Redis 的配置文件,可以看到这个缓冲区的默认配置:client-output-buffer-limit pubsub 32mb 8mb 60
    它的参数含义如下:

    • 32mb:缓冲区一旦超过 32MB,Redis 直接强制把消费者踢下线
    • 8mb + 60:缓冲区超过 8MB,并且持续 60 秒,Redis 也会把消费者踢下线

    Pub/Sub 的这一点特点,是与 List 作队列差异比较大的
    从这里你应该可以看出,List 其实是属于模型,而 Pub/Sub 其实属于模型。
    List 中的数据可以一直积压在内存中,消费者什么时候来都可以。
    Pub/Sub 是把消息先到消费者在 Redis Server 上的缓冲区中,然后等消费者再来取。
    当生产、消费速度不匹配时,就会导致缓冲区的内存开始膨胀,Redis 为了控制缓冲区的上限,所以就有了上面讲到的,强制把消费者踢下线的机制。

    好了,现在我们总结一下 Pub/Sub 的优缺点:

    • 支持发布 / 订阅,支持多组生产者、消费者处理消息
    • 消费者下线,数据会丢失
    • 不支持数据持久化,Redis 宕机,数据也会丢失
    • 消息堆积,缓冲区溢出,消费者会被强制踢下线,数据也会丢失

    有没有发现,除了第一个是优点之外,剩下的都是缺点。
    所以,很多人看到 Pub/Sub 的特点后,觉得这个功能很鸡肋
    也正是以上原因,Pub/Sub 在实际的应用场景中用得并不多
    目前只有哨兵集群和Redis 实例通信时,采用了 Pub/Sub 的方案,因为哨兵正好符合即时通讯的业务场景。
    我们再来看一下,Pub/Sub 有没有解决,消息处理时异常宕机,无法再次消费的问题呢?
    其实也不行,Pub/Sub 从缓冲区取走数据之后,数据就从 Redis 缓冲区删除了,消费者发生异常,自然也无法再次重新消费。

    好,现在我们重新梳理一下,我们在使用消息队列时的需求。

    当我们在使用一个消息队列时,希望它的功能如下:

    • 支持阻塞等待拉取消息
    • 支持发布 / 订阅模式
    • 消费失败,可重新消费,消息不丢失
    • 实例宕机,消息不丢失,数据可持久化
    • 消息可堆积

    Redis 除了 ListPub/Sub 之外,还有符合这些要求的数据类型吗?
    其实,Redis 的作者也看到了以上这些问题,也一直在朝着这些方向努力着。
    Redis 作者在开发 Redis 期间,还另外开发了一个开源项目 disque
    这个项目的定位,就是一个基于内存的分布式消息队列中间件。
    但由于种种原因,这个项目一直不温不火。
    终于,在 Redis 5.0 版本,作者把 disque 功能移植到了 Redis 中,并给它定义了一个新的数据类型:Stream
    下面我们就来看看,它能符合上面提到的这些要求吗?

    1.3 Redis中的Stream

    1.3.1 简单使用

    趋于成熟的队列:Stream
    我们来看 Stream 是如何解决上面这些问题的
    我们依旧从简单到复杂,依次来看 Stream 在做消息队列时,是如何处理的?

    首先,Stream 通过 XADDXREAD 完成最简单的生产、消费模型:

    • XADD:发布消息
    • XREAD:读取消息

    生产者发布 2 条消息:

    // *表示让Redis自动生成消息ID
    127.0.0.1:6379> XADD queue * name zhangsan
    "1618469123380-0"
    127.0.0.1:6379> XADD queue * name lisi
    "1618469127777-0"
    

    使用 XADD 命令发布消息,其中的*表示让 Redis 自动生成唯一的消息 ID
    这个消息 ID 的格式是时间戳-自增序号

    消费者拉取消息:

    // 从开头读取5条消息,0-0表示从开头读取
    127.0.0.1:6379> XREAD COUNT 5 STREAMS queue 0-0
    1) 1) "queue"
       2) 1) 1) "1618469123380-0"
             2) 1) "name"
                2) "zhangsan"
          2) 1) "1618469127777-0"
             2) 1) "name"
                2) "lisi"
    

    如果想继续拉取消息,需要传入上一条消息的 ID:

    127.0.0.1:6379> XREAD COUNT 5 STREAMS queue 1618469127777-0
    (nil)
    

    没有消息,Redis 会返回 NULL

    图片

    以上就是 Stream 最简单的生产、消费
    这里不再重点介绍 Stream 命令的各种参数,我在例子中演示时,凡是大写的单词都是固定参数,凡是小写的单词,都是可以自己定义的,例如队列名、消息长度等等,下面的例子规则也是一样,为了方便你理解,这里有必要提醒一下。

    下面我们来看,针对前面提到的消息队列要求,Stream 都是如何解决的?

    1.3.2 stream阻塞拉取

    Stream 是否支持阻塞式拉取消息?
    可以的,在读取消息时,只需要增加 BLOCK 参数即可

    // BLOCK 0 表示阻塞等待,不设置超时时间
    127.0.0.1:6379> XREAD COUNT 5 BLOCK 0 STREAMS queue 1618469127777-0
    

    这时,消费者就会阻塞等待,直到生产者发布新的消息才会返回。

    1.3.3 Stream支持发布 / 订阅模式

    也没问题,Stream 通过以下命令完成发布订阅:

    • XGROUP:创建消费者组
    • XREADGROUP:在指定消费组下,开启消费者拉取消息

    下面我们来看具体如何做?
    首先,生产者依旧发布 2 条消息:

    127.0.0.1:6379> XADD queue * name zhangsan
    "1618470740565-0"
    127.0.0.1:6379> XADD queue * name lisi
    "1618470743793-0"
    

    之后,我们想要开启 2 组消费者处理同一批数据,就需要创建 2 个消费者组:

    // 创建消费者组1,0-0表示从头拉取消息
    127.0.0.1:6379> XGROUP CREATE queue group1 0-0
    OK
    // 创建消费者组2,0-0表示从头拉取消息
    127.0.0.1:6379> XGROUP CREATE queue group2 0-0
    OK
    

    消费者组创建好之后,我们可以给每个消费者组下面挂一个消费者,让它们分别处理同一批数据。

    第一个消费组开始消费:

    // group1的consumer开始消费,>表示拉取最新数据
    127.0.0.1:6379> XREADGROUP GROUP group1 consumer COUNT 5 STREAMS queue >
    1) 1) "queue"
       2) 1) 1) "1618470740565-0"
             2) 1) "name"
                2) "zhangsan"
          2) 1) "1618470743793-0"
             2) 1) "name"
                2) "lisi"
    

    同样地,第二个消费组开始消费:

    // group2的consumer开始消费,>表示拉取最新数据
    127.0.0.1:6379> XREADGROUP GROUP group2 consumer COUNT 5 STREAMS queue >
    1) 1) "queue"
       2) 1) 1) "1618470740565-0"
             2) 1) "name"
                2) "zhangsan"
          2) 1) "1618470743793-0"
             2) 1) "name"
                2) "lisi"
    

    我们可以看到,这 2 组消费者,都可以获取同一批数据进行处理了。

    这样一来,就达到了多组消费者「订阅」消费的目的。

    在这里插入图片描述

    1.3.4 stream不丢消息

    消息处理时异常,Stream 能否保证消息不丢失,重新消费?
    除了上面拉取消息时用到了消息 ID,这里为了保证重新消费,也要用到这个消息 ID。
    当一组消费者处理完消息后,需要执行 XACK 命令告知 Redis,这时 Redis 就会把这条消息标记为处理完成

    // group1下的 1618472043089-0 消息已处理完成
    127.0.0.1:6379> XACK queue group1 1618472043089-0
    

    图片

    如果消费者异常宕机,肯定不会发送 XACK,那么 Redis 就会依旧保留这条消息。
    待这组消费者重新上线后,Redis 就会把之前没有处理成功的数据,重新发给这个消费者。这样一来,即使消费者异常,也不会丢失数据了。

    // 消费者重新上线,0-0表示重新拉取未ACK的消息
    127.0.0.1:6379> XREADGROUP GROUP group1 consumer1 COUNT 5 STREAMS queue 0-0
    // 之前没消费成功的数据,依旧可以重新消费
    1) 1) "queue"
       2) 1) 1) "1618472043089-0"
             2) 1) "name"
                2) "zhangsan"
          2) 1) "1618472045158-0"
             2) 1) "name"
                2) "lisi"
    

    1.3.5 stream持久化处理

    Stream 是新增加的数据类型,它与其它数据类型一样,每个写操作,也都会写入到 RDBAOF
    我们只需要配置好持久化策略,这样的话,就算 Redis 宕机重启,Stream 中的数据也可以从 RDBAOF 中恢复回来。

    1.3.6 stream消息堆积

    消息堆积时,Stream 是怎么处理的?
    其实,当消息队列发生消息堆积时,一般只有 2 个解决方案:

    • 生产者限流:避免消费者处理不及时,导致持续积压
    • 丢弃消息:中间件丢弃旧消息,只保留固定长度的新消息

    Redis 在实现 Stream 时,采用了第 2 个方案。

    在发布消息时,你可以指定队列的最大长度,防止队列积压导致内存爆炸。

    // 队列长度最大10000
    127.0.0.1:6379> XADD queue MAXLEN 10000 * name zhangsan
    "1618473015018-0"
    

    当队列长度超过上限后,旧消息会被删除,只保留固定长度的新消息。
    这么来看,Stream 在消息积压时,如果指定了最大长度,还是有可能丢失消息的。
    除了以上介绍到的命令,Stream 还支持查看消息长度XLEN、查看消费者状态XINFO等命令,使用也比较简单,你可以查询官方文档了解一下,这里就不过多介绍了。

    好了,通过以上介绍,我们可以看到,RedisStream 几乎覆盖到了消息队列的各种场景,是不是觉得很完美?
    既然它的功能这么强大,这是不是意味着,Redis 真的可以作为专业的消息队列中间件来使用呢?
    但是还差一点,就算 Redis 能做到以上这些,也只是趋近于专业的消息队列。
    原因在于 Redis 本身的一些问题,如果把其定位成消息队列,还是有些欠缺的。
    到这里,就不得不把 Redis 与专业的队列中间件做对比了。

    1.4 与专业消息对比

    与专业的消息队列对比
    其实,一个专业的消息队列,必须要做到两大块:

    • 消息不丢
    • 消息可堆积

    前面我们讨论的重点,很大篇幅围绕的是第一点展开的。
    这里我们换个角度,从一个消息队列的「使用模型」来分析一下,怎么做,才能保证数据不丢?

    使用一个消息队列,其实就分为三大块:生产者、队列中间件、消费者
    在这里插入图片描述

    消息是否会发生丢失,其重点也就在于以下 3 个环节:

    • 生产者会不会丢消息?
    • 消费者会不会丢消息?
    • 队列中间件会不会丢消息?

    1.4.1 生产者会不会丢消息

    当生产者在发布消息时,可能发生以下异常情况:

    • 消息没发出去:网络故障或其它问题导致发布失败,中间件直接返回失败
    • 不确定是否发布成功:网络问题导致发布超时,可能数据已发送成功,但读取响应结果超时了

    如果是情况 1,消息根本没发出去,那么重新发一次就好了。
    如果是情况 2,生产者没办法知道消息到底有没有发成功?所以,为了避免消息丢失,它也只能继续重试,直到发布成功为止。
    生产者一般会设定一个最大重试次数,超过上限依旧失败,需要记录日志报警处理。
    也就是说,生产者为了避免消息丢失,只能采用失败重试的方式来处理。
    但发现没有?这也意味着消息可能会重复发送。
    是的,在使用消息队列时,要保证消息不丢,宁可重发,也不能丢弃。
    那消费者这边,就需要多做一些逻辑了。
    对于敏感业务,当消费者收到重复数据数据时,要设计幂等逻辑,保证业务的正确性。
    从这个角度来看,生产者会不会丢消息,取决于生产者对于异常情况的处理是否合理。
    所以,无论是 Redis 还是专业的队列中间件,生产者在这一点上都是可以保证消息不丢的。

    1.4.2 消费者会不会丢消息

    这种情况就是我们前面提到的,消费者拿到消息后,还没处理完成,就异常宕机了,那消费者还能否重新消费失败的消息?
    要解决这个问题,消费者在处理完消息后,必须「告知」队列中间件,队列中间件才会把标记已处理,否则仍旧把这些数据发给消费者。
    这种方案需要消费者和中间件互相配合,才能保证消费者这一侧的消息不丢。
    无论是 RedisStream,还是专业的队列中间件,例如 RabbitMQ、Kafka,其实都是这么做的。
    所以,从这个角度来看,Redis 也是合格的。

    1.4.3 队列中间件会不会丢消息

    前面 2 个问题都比较好处理,只要客户端和服务端配合好,就能保证生产端、消费端都不丢消息。
    但是,如果队列中间件本身就不可靠呢?

    毕竟生产者和消费这都依赖它,如果它不可靠,那么生产者和消费者无论怎么做,都无法保证数据不丢。
    在这个方面,Redis 其实没有达到要求。
    Redis 在以下 2 个场景下,都会导致数据丢失。
    AOF 持久化配置为每秒写盘,但这个写盘过程是异步的,Redis 宕机时会存在数据丢失的可能
    主从复制也是异步的,主从切换时,也存在丢失数据的可能(从库还未同步完成主库发来的数据,就被提成主库)
    基于以上原因我们可以看到,Redis 本身的无法保证严格的数据完整性。
    所以,如果把 Redis 当做消息队列,在这方面是有可能导致数据丢失的。

    再来看那些专业的消息队列中间件是如何解决这个问题的?
    RabbitMQKafka 这类专业的队列中间件,在使用时,一般是部署一个集群,生产者在发布消息时,队列中间件通常会写多个节点,以此保证消息的完整性。这样一来,即便其中一个节点挂了,也能保证集群的数据不丢失。
    也正因为如此,RabbitMQ、Kafka在设计时也更复杂。毕竟,它们是专门针对队列场景设计的。
    Redis 的定位则不同,它的定位更多是当作缓存来用,它们两者在这个方面肯定是存在差异的。

    1.4.4 消息积压怎么办

    因为 Redis 的数据都存储在内存中,这就意味着一旦发生消息积压,则会导致 Redis 的内存持续增长,如果超过机器内存上限,就会面临被 OOM 的风险。
    所以,RedisStream 提供了可以指定队列最大长度的功能,就是为了避免这种情况发生。
    Kafka、RabbitMQ 这类消息队列就不一样了,它们的数据都会存储在磁盘上,磁盘的成本要比内存小得多,当消息积压时,无非就是多占用一些磁盘空间,相比于内存,在面对积压时也会更加坦然

    综上,我们可以看到,把 Redis 当作队列来使用时,始终面临的 2 个问题:

    • Redis 本身可能会丢数据
    • 面对消息积压,Redis 内存资源紧张

    到这里,Redis 是否可以用作队列,我想这个答案你应该会比较清晰了。
    如果你的业务场景足够简单,对于数据丢失不敏感,而且消息积压概率比较小的情况下,把 Redis 当作队列是完全可以的。
    而且,Redis 相比于 Kafka、RabbitMQ,部署和运维也更加轻量。
    如果你的业务场景对于数据丢失非常敏感,而且写入量非常大,消息积压时会占用很多的机器资源,那么我建议你使用专业的消息队列中间件。

    在这里插入图片描述

    展开全文
  • 我来给你解释: 第一,通过...你该说了,bytemap最快啊,不用啊,因为作者用了超级强悍的序列化工具啊,以上测试基于java的序列化,如果改了序列化工具,你可以测试下。 因本人能力有限,以上可能有谬论,恳请指正

    我来给你解释:

    第一,通过jedis 储存对象有大概三种,one:本课程的序列化成byte字节 ,最终存byte字节,two:对象转hashmap,也就是你想表达的hash的形式,最终存map,three:对象转json,最终存json,其实也就是字符串

    第二:其实如果你是平常的项目,并发不高,三个选择都可以,反而你说的hash的形式更加灵活,可以对象的单个属性,但是来了,秒杀的场景的情况下,三者的效率差别很大的

    第三:结果如下

    10w数据          时间    内存占用

    存json               10s        14M

    存byte               6s            6M

    存jsonMap      10s          20M

    存byteMap      4s             4M

    取json              7s

    取byte              4s

    取jsonmap      7s

    取bytemap      4s

    第四:你该说了,bytemap最快啊,为啥不用啊,因为作者用了超级强悍的序列化工具啊,以上测试基于java的序列化,如果改了序列化工具,你可以测试下。

    因本人能力有限,以上可能有谬论,恳请指正

    展开全文
  • 做后端开发的童鞋肯定都知道Redis,这是一个性能非常不错的非关系型数据库,通常扮演缓存的角色来存在于项目当中。 Redis的应用场景还是不少的,比如:缓存、排行榜、分布式会话、分布式锁、计数器、简单的消息队列...

    前言

    做后端开发的童鞋肯定都知道Redis,这是一个性能非常不错的非关系型数据库,通常扮演缓存的角色来存在于项目当中。

    Redis的应用场景还是不少的,比如:缓存、排行榜、分布式会话、分布式锁、计数器、简单的消息队列等。

    对于它能当一个简单的消息队列这件事,我还是比较好奇的,所以最近就研究了一下,随手写下这篇文章来做个总结。

    先说结论:Redis的确可以充当消息队列,但是不推荐。

    发布/订阅(pub/sub)

    Publish/Subscribe 是目前广泛使用的通信模型,它采用事件作为基本的通信机制,提供大规模系统所要求的松散耦合的交互模式。订阅者(如客户端)以事件订阅的方式表达出它有兴趣接收的一个事件或一类事件;发布者(如服务器)可将订阅者感兴趣的事件随时通知相关订阅者。

    简单总结就是:

    发布订阅 (Pub/Sub) 是一种消息通信模式:发送者 (Pub) 发送消息,订阅者 (Sub) 接收消息。

    熟悉设计模式的童鞋应该了解这与23种设计模式中的观察者模式极为相似。

    Redis的发布/订阅

    在Redis中,每个客户端可以订阅任意数量的频道(Channel)。

    下图展示了频道channel1,以及订阅这个频道的三个客户端之间的关系:

    当有新消息通过PUBLISH命令发送给频道channel1时,这个消息就会被发送给订阅它的三个客户端:

    演示如下:

    客户端常用命令

    命令解释
    publish channel message向指定的channel中发布消息
    subscribe channel1 [channel2…]订阅给定的一个或多个渠道的消息
    unsubcribe [channel1 [channel2…]]取消订阅给定的一个或多个渠道的消息
    psubscribe pattern1 [pattern2…]订阅一个或多个符合给定模式的频道
    punsubscribe [pattern1 [pattern2…]]退订所有给定模式的频道
    pubsub channel列出至少有一个订阅者的频道
    pubsub numsub [channel…]列出给定频道的订阅者数量

    Java整合Redis的发布订阅

    以SpringBoot项目为例,整合Redis实现发布订阅。

    引入依赖

    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-redis</artifactId>
    </dependency>
    

    配置Redis的连接信息

    通过查看RedisTemplate的源码,我发现如果你是在本地电脑上启动的Redis,而且端口是默认的,那么下面的配置信息可以不写。

    spring.redis.database=0
    spring.redis.host=localhost
    spring.redis.port=6379
    

    消费者

    @Component
    public class RedisReceiver {
    
        public void receiveMessage(String jsonMsg){
            System.out.println("receiveMessage 消费了消息:" + jsonMsg);
        }
    }
    

    生产者

    @EnableScheduling
    @Component
    public class PublishService {
    
        @Autowired
        private RedisTemplate redisTemplate;
    
        @Scheduled(fixedRate = 5000)
        public void hello() {
            redisTemplate.convertAndSend("world", JSONObject.toJSONString(System.currentTimeMillis()));
        }
    }
    

    消息配置类

    @Configuration
    @EnableCaching
    public class RedisMessageConfig {
    
        @Bean
        public RedisMessageListenerContainer container(RedisConnectionFactory connectionFactory, MessageListenerAdapter listenerAdapter) {
            RedisMessageListenerContainer container = new RedisMessageListenerContainer();
            container.setConnectionFactory(connectionFactory);
            container.addMessageListener(listenerAdapter, new PatternTopic("world"));
            return container;
        }
    
        @Bean
        public MessageListenerAdapter listenerAdapter(RedisReceiver receiver) {
            MessageListenerAdapter listenerAdapter = new MessageListenerAdapter(receiver, "receiveMessage");
            listenerAdapter.setSerializer(new JdkSerializationRedisSerializer());
            return listenerAdapter;
        }
    
        @Bean
        public StringRedisTemplate template(RedisConnectionFactory connectionFactory) {
            return new StringRedisTemplate(connectionFactory);
        }
    }
    

    效果

    生产者每5秒会往名叫world的频道中发送当前系统的时间戳,消费者获取到消息并打印到控制台。

    分析

    消息队列通常适用于多个不同的系统进行信息通信,如果把上面的消费者和生产者分别写在不同的项目中,就会发现,如果你的消费者突然意外挂掉了,由于使用Redis作为消息队列这种方案是无法将数据进行持久化的,所以不可避免的会导致消息的丢失!

    这种方案的的缺陷就在于客户端必须一直在线才能接收到消息。

    结论

    不推荐Redis作为消息队列的原因有以下两点:

    1. 系统稳定性:在旧版的Redis中,如果一个客户端订阅了某个或者某些频道,但是它读取消息的速度不够快,那么不断的积压的消息就会使得Redis输出缓冲区的体积越来越大,这可能会导致Redis的速度变慢,甚至直接崩溃。也可能会导致Redis被操作系统强制杀死,甚至导致操作系统本身不可用。
    2. 数据可靠性:任何网络系统在执行操作时都可能会遇到断网的情况。而断线产生的连接错误通常会使得网络连接两端中的一端进行重新连接。如果客户端在执行订阅操作的过程中断线,那么客户端将会丢失在断线期间的消息,这在很多业务场景下是不可忍受的。

    参考资料

    1. https://www.cnblogs.com/xinde123/p/8489054.html
    2. https://my.oschina.net/u/2457218/blog/3065021
    展开全文
  • 一般不用redis这个消息通讯功能,一般用activeMQ等其他框架。 redis客户端订阅频道,消息的发布者在频道发布消息,所有订阅该频道的客户端都能接收该消息。 1》subscribe订阅一个或多个频道的消息 subscribe ch1 ch2...
  • skiplist,顾名思义,首先它是一个list。实际上,它是在有序链表的基础上发展起来的。我们先来看一个有序链表,如下图...也就是说,时间复杂度O(n)。同样,当我们要插入新数据的时候,也要经历同样的查找过程,从...
  • 数据多的时候为什么要使用redis不用mysql? 通常来说,当数据多、并发量大的时候,架构中可以引入Redis,帮助提升架构的整体性能,减少Mysql(或其他数据库)的压力,但不是使用Redis,就不用MySQL。 因为Redis的...
  • 近期组员接手了一个领券的业务,涉及到了对券批次库存的扣减操作,在多次尝试优化后压测起来仍有一些性能问题,由于接近deadline,于是自己也...使我对日常在论坛看到的redis秒杀库存的实现有了进一步的认知。 ...
  • 问题:我们已经部署好了redis,并且能启动一个redis,实现数据的读写,为什么还要学习redis集群? 答:(1)单个redis存在不稳定性。当redis服务宕机了,就没有可用的服务了。 (推荐学习:Redis视频教程) (2)...
  • 为什么使用 Redis 而不是内存
  • Redis 为什么用单线程 首先,我们说一下为什么 Redis 要使用单线程,Redis 是单线程,主要是指 Redis 的网络 IO 和键值对读写是由一个线程来完成的,这也是 Redis 对外提供键值存储服务的主要流程。但 Redis 的其他...
  • 通常来说,没有说用Redis不用MySQL的这种情况。因为Redis是一种非关系型数据库(NoSQL),而MySQL是一种关系型数据库。和Redis同类的数据库还有MongoDB和Memchache(其实并没有持久化数据)那关系型数据库现在常用的...
  • 翻译过来大意如下:CPU并不是您使用Redis的瓶颈,因为通常Redis要么受内存限制,要么受网络限制。例如,使用在一般Linux系统上运行的流水线Redis每秒可以发送一百万个请求,因此,如果您的应用程序主要使用O(N)或O...
  • 一、为什么使用Redis "为什么会有Redis呢?我放在map里面、list里面不是一样的嘛?反正都是放在内存里边。" 在早期单体应用时确实如此,只有一台服务进程,我们放在map中、list中都可以顺利的拿到内存中的数据,...
  • } 调用的zSetAdd方法实际就是对redis的操作,重点就是时间戳score这个值,集合就是通过这个值进行排序的 public boolean zSetAdd(String key, Object value, longscore) {booleanre;try{ re=redisTemplate....
  • Redis为什么这么快?Redis的线程模型与Redis多线程

    万次阅读 多人点赞 2021-02-01 03:06:08
    二、Redis为什么这么快: (1)完全基于内存,数据存在内存中,绝大部分请求是纯粹的内存操作,非常快速,跟传统的磁盘文件数据存储相比,避免了通过磁盘IO读取到内存这部分的开销。 (2)数据结构简单,对数据...
  • 它的作用范围,也由单机转换分布式,是常用的资源协调手段。常用的有redis分布式做和zk分布式锁。但它们有什么区别呢?我们在平常使用中,又该如何选择。 1. 解析 这个问题对要求较高,它不仅要了解实现方法,还要...
  • 因为redis内部用的是文件事件处理器,文件事件处理器是单线程的,所以redis才叫单线程模型。 Redis采用IO多路复用机同时制监听多个socket,将产生事件的socket压入队列中,事件分派器根据socket上的事件类型选择...
  • packagecom.xiaochun.service;importorg.apache.commons.lang3.StringUtils;importorg.slf4j.Logger;importorg.slf4j....importorg.springframework.data.redis.core.RedisTemplate;importorg.springfram...
  • 为什么要用 redis

    2021-03-17 12:14:50
    为什么要用 redis不用 map/guava 做缓存? 缓存分为本地缓存和分布式缓存。以 Java 为例,使用自带的 map 或者 guava 实现的是本地缓存,最主要的特点是轻量以及快速,生命周期随着 jvm 的销毁而结束,并且在多...
  • 为什么选用redis 高效性: Redis读取的速度是110000次/s,写的速度是81000次/s 原子性: Redis的所有操作都是原子性的,同时Redis还支持对几个操作全并后的原子性执行。 支持多种数据结构: string(字符串);list...
  • 为什么Redis是单线程的?

    千次阅读 2021-11-08 00:46:10
    redis 核心就是 如果我的数据全都在内存里,我单线程的去操作 就是效率最高的,为什么呢,因为多线程的本质就是 CPU 模拟出来多个线程的情况,这种模拟出来的情况就有一个代价,就是上下文的切换,对于一个内存的...
  • 单线程编程容易并且更容易维护; Redis 的性能瓶颈不再 CPU ,主要在内存和网络; 多线程就会存在死锁、线程上下文切换等问题,甚至会影响性能。 JavaGuide
  • Redis为什么是单线程 ​ 首先我们要知道严格来说Redis并不是单线程的,Redis的其他功能,比如持久化、异步删除、集群数据同步等,其实是由额外的线程执行的。Redis的单线程是指:Redis的网络IO和键值对读写是由一个...
  • 四、Redis为什么这么快 五、那么为什么Redis是单线程的 六、注意点 七、扩展 一、前言 近乎所有与Java相关的面试都会问到缓存的问题,基础一点的会问到什么是“二八定律”、什么是“热数据和冷数据”,复杂...
  • Raft协议的实现细节本文不打算深究,大家如果感兴趣,可以在文末查看笔者有关Raft协议的专栏,本文只从设计层面剖析为什么Raft协议能实现数据的一致性。 笔者认为Raft协议能确保数据的一致性,主要是引入了全局日志...
  • Redis的高并发和快速原因1.redis是基于内存的,内存的读写速度非常快;2.redis是单线程的,省去了很多上下文切换线程的时间;3.redis使用多路复用技术,可以处理并发的连接。非阻塞IO 内部实现采用epoll,采用了...
  • Redis 6.0首次引入了多线程。 看下官方发布的新版和旧版的性能对比: 1)get的性能对比: 2)set的性能对比: 可以看出,无论读还是写,多线程性能都远好于单线程,几乎翻倍了。上图仅是简单验证,仅作为参考,不...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 110,751
精华内容 44,300
关键字:

为什么不用redis

redis 订阅