【高频面试题】 消息中间件

news2024/11/18 11:41:32

文章目录

    • 1、RabbitMQ
      • 1.1 RabbitMQ-如何保证消息不丢失
      • 1.2 RabbitMQ消息的重复消费问题如何解决的
      • 1.3 RabbitMQ中死信交换机 ? (RabbitMQ延迟队列有了解过嘛)
      • 1.4 RabbitMQ如果有100万消息堆积在MQ , 如何解决(消息堆积怎么解决)
      • 1.5 RabbitMQ的高可用机制有了解过嘛
    • 2、Kafka
      • 2.1 Kafka是如何保证消息不丢失
      • 2.2 Kafka中消息的重复消费问题如何解决的
      • 2.3 Kafka是如何保证消费的顺序性
      • 2.4 Kafka的高可用机制有了解过嘛
      • 2.5 解释一下复制机制中的ISR
      • 2.6 Kafka数据清理机制了解过嘛
      • 2.7 Kafka中实现高性能的设计有了解过嘛

1、RabbitMQ

1.1 RabbitMQ-如何保证消息不丢失

  1. 开启生产者确认机制,确保生产者的消息能到达队列
  2. 开启持久化功能,确保消息未消费前在队列中不会丢失
  3. 开启消费者确认机制为auto,由spring确认消息处理成功后完成ack
  4. 开启消费者失败重试机制,多次重试失败后将消息投递到异常交换机,交由人工处理

首先需要知道消息会在什么地方会丢失

消息从生产者发送到消费者消费的整个流程都可能丢失消息

在这里插入图片描述
生产者确认机制(生产者阶段)

RabbitMQ提供了publisher confirm机制来避免消息发送到MQ过程中丢失。消息发送到MQ以后,会返回一个结果给发送者,表示消息是否处理成功
在这里插入图片描述
消息失败之后如何处理呢?

  1. 回调方法即时重发
  2. 记录日志
  3. 保存到数据库然后定时重发,成功发送后即刻删除表中的数据

消息持久化(mq阶段)

MQ默认是内存存储消息,开启持久化功能可以确保缓存在MQ中的消息不丢失。
在配置 MQ的时候,对交换机、队列可以设置持久化
在这里插入图片描述

消费者确认

RabbitMQ支持消费者确认机制,即:消费者处理消息后可以向MQ发送ack回执MQ收到ack回执后才会删除该消息。而SpringAMQP则允许配置三种确认模式:

  1. manual:手动ack,需要在业务代码结束后,调用api发送ack。
  2. auto:自动ack,由spring监测listener代码是否出现异常,没有异常则返回ack;抛出异常则返回nack
  3. none:关闭ack,MQ假定消费者获取消息后会成功处理,因此消息投递后立即被删除

我们可以利用Spring的retry机制,在消费者出现异常时利用本地重试,设置重试次数,当次数达到了以后,如果消息依然失败,将消息投递到异常交换机,交由人工处理
在这里插入图片描述


1.2 RabbitMQ消息的重复消费问题如何解决的

首先要知道为什么会重复消费?

如果在消费者消费完消息之后要给mq发送ack确认消息的时候,突然因为网络抖动,或者消费者宕机了,使得消息没有被确认消费,就不会再mq中剔除,造成别的消费者也能拿到消息然后消费

在这里插入图片描述
解决办法有两种:

  1. 每条消息设置一个唯一的标识id(效率高)
    在这里插入图片描述
    每次消费者消费的时候,都要检查数据库里面是否已经有了这个数据(根据唯一标识id),有代表消费过了,就不让消费

  2. 幂等方案:【 redis分布式锁、数据库锁(悲观锁、乐观锁) 】(枷锁效率不高)


1.3 RabbitMQ中死信交换机 ? (RabbitMQ延迟队列有了解过嘛)

延迟队列:进入队列的消息会被延迟消费的队列
场景:超时订单、限时优惠、定时发布
在这里插入图片描述

延迟队列就是由死信交换机+TTL(生存时间)组成的

死信交换机
当一个队列中的消息满足下列情况之一时,可以成为死信(dead letter):

  1. 消费者使用basic.reject或 basic.nack声明消费失败,并且消息的requeue参数设置为false
  2. 消息是一个过期消息,超时无人消费
  3. 要投递的队列消息堆积满了,最早的消息可能成为死信

如果该队列配置了dead-letter-exchange属性,指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机称为死信交换机(Dead Letter Exchange,简称DLX)。
在这里插入图片描述
TTL
TTL,也就是Time-To-Live。如果一个队列中的消息TTL结束仍未消费,则会变为死信,ttl超时分为两种情况:

  1. 消息所在的队列设置了存活时间
  2. 消息本身设置了存活时间

在这里插入图片描述

延迟队列插件
在这里插入图片描述

DelayExchange的本质还是官方的三种交换机,只是添加了延迟功能。因此使用时只需要声明一个交换机,交换机的类型可以是任意类型,然后设定delayed属性为true即可。

在这里插入图片描述


1.4 RabbitMQ如果有100万消息堆积在MQ , 如何解决(消息堆积怎么解决)

解决消息堆积有三种种思路:

  1. 增加更多消费者,提高消费速度
  2. 消费者内开启线程池加快消息处理速度
  3. 扩大队列容积,提高堆积上限,采用惰性队列

在声明队列的时候可以设置属性x-queue-mode为lazy,即为惰性队列 基于磁盘存储,消息上限高
性能比较稳定,但基于磁盘存储,受限于磁盘IO,时效性会降低

为什么会出现消息堆积,无非就是消费速度赶上不消费速度

就会导致队列中的消息堆积,直到队列存储消息达到上限。之后发送的消息就会成为死信,可能会被丢弃

在这里插入图片描述

惰性队列
惰性队列的特征如下:

  • 接收到消息后直接存入磁盘而非内存
  • 消费者要消费消息时才会从磁盘中读取并加载到内存
  • 支持数百万条的消息存储

在这里插入图片描述


1.5 RabbitMQ的高可用机制有了解过嘛

高可用无非就是做集群,一个节点宕机了,别的节点还能使用,使得数据不被丢失

普通集群(不推荐)

  • 会在集群的各个节点间共享部分数据,包括:交换机、队列元信息。不包含队列中的消息。
  • 当访问集群某节点时,如果队列不在该节点,会从数据所在节点传递到当前节点并返回
  • 队列所在节点宕机,队列中的消息就会丢失

在这里插入图片描述
镜像集群(也会造成数据丢失)
镜像集群:本质是主从模式,具备下面的特征:

  • 交换机、队列、队列中的消息会在各个mq的镜像节点之间同步备份。
  • 创建队列的节点被称为该队列的主节点,备份到的其它节点叫做该队列的镜像节点。
  • 一个队列的主节点可能是另一个队列的镜像节点
  • 所有操作都是主节点完成,然后同步给镜像节点
  • 主宕机后,镜像节点会替代成新的主

若主节点还没给镜像节点同步就宕机了,还是会造成数据丢失

在这里插入图片描述
仲裁队列

仲裁队列:仲裁队列是3.8版本以后才有的新功能,用来替代镜像队列,具备下列特征:

  • 与镜像队列一样,都是主从模式,支持主从数据同步
  • 使用非常简单,没有复杂的配置
  • 主从同步基于Raft协议,强一致

在这里插入图片描述


2、Kafka

2.1 Kafka是如何保证消息不丢失

需要从三个层面去解决这个问题:

  1. 生产者发送消息到Brocker丢失

设置异步发送,发送失败使用回调进行记录或重发
失败重试,参数配置,可以设置重试次数

  1. 消息在Brocker中存储丢失

发送确认acks,选择all,让所有的副本都参与保存数据后确认

  1. 消费者从Brocker接收消息丢失

关闭自动提交偏移量,开启手动提交偏移量
提交方式,最好是同步+异步提交

首先得知道消息在传递过程中经历过哪些阶段:
在这里插入图片描述
所以在生产者、kafka的Brocker、消费者都会出现消息丢失现象

生产者发送消息到Brocker丢失
在这里插入图片描述
解决办法:1、异步发送,发送失败记录日志。2、开启失败重试
在这里插入图片描述
消息在Brocker中存储丢失

在这里插入图片描述
解决办法就是,Brocker收到消息之后,给生产者发送一个ack确认,告诉生产者消息接收到了,至于这个消息是leader发还是leader和follower一起发取决于ack的参数值

在这里插入图片描述
像acks=all 就需要所有的追随者(follower)都同步消息了才会给生产者发送ack确认,效率就很慢,一般设置ack=1,由leader发送确认消息就行了

消费者从Brocker接收消息丢失
在这里插入图片描述
消费者消费消息是根据分区中的偏移量来按位消费

消费者默认是自动按期提交已经消费的偏移量,默认是每隔5s提交一次
如果出现重平衡的情况,可能会重复消费或丢失数据

正常消费:
在这里插入图片描述
重平衡: 会导致消息丢失或者消息重读
消息重读

若此刻consumer2消费消息之后,还没有将偏移量更新同步到分区当中,突然宕机了,此刻consumer1会继承consumer2的分区继续跟着原来的偏移量消费,此刻就会造成重复消费。

在这里插入图片描述
消息丢失

也就是提交偏移量和实际消费的消息有偏差,本来要消费3个,结果只消费了1个,然后偏移量也提交到了3,然后突然宕机了,这个时候别的消费者继承分区之后,会从3之后开始消费,这时候2,3位置的消息就丢失了

在这里插入图片描述

解决办法就是把自动设置偏移量设置为手动

禁用自动提交偏移量,改为手动
同步提交
异步提交
同步+异步组合提交

幂等方案(根据全局唯一id来判断重复提交,或者加分布式锁)

例如:
在这里插入图片描述


2.2 Kafka中消息的重复消费问题如何解决的

参考2.1重平衡,消息重读

  1. 关闭自动提交偏移量,开启手动提交偏移量
  2. 提交方式,最好是同步+异步提交
  3. 幂等方案

2.3 Kafka是如何保证消费的顺序性

问题原因:

一个topic的数据可能存储在不同的分区中,每个分区都有一个按照顺序的存储的偏移量,如果消费者关联了多个分区不能保证顺序性

解决方案:

topic分区中消息只能由消费者组中的唯一一个消费者处理,所以消息肯定是按照先后顺序进行处理的。但是它也仅仅是保证Topic的一个分区顺序处理,不能保证跨分区的消息先后处理顺序。 所以,如果你想要顺序的处理Topic的所有消息,那就只提供一个分区。

发送消息时指定分区号
(主要)发送消息时按照相同的业务设置相同的key

首先得知道kafka默认是不确保消费的顺序性的,因为一个消费者可能负责几个分区,而消费者又是根据偏移量来消费的,不同分区的偏移量自然是不同的

假设用户先充值,再转账,那么必须先充值,才能去转账,这样就要保证消费的顺序性

转账和充值消息在不同分区
在这里插入图片描述
转账和充值消息在同一分区
在这里插入图片描述
这样就能保证转账操作一定是在充值动作的后面执行,也就保证了消费的顺序性

在这里插入图片描述
可以直接指定分区,或者根据key的hashCode来计算分区位置保证需要顺序消费的信息在同一分区


2.4 Kafka的高可用机制有了解过嘛

集群

一个kafka集群由多个broker实例组成,即使某一台宕机,也不耽误其他broker继续对外提供服务

复制机制

一个topic有多个分区,每个分区有多个副本,有一个leader,其余的是follower,副本存储在不同的broker中所有的分区副本的内容是都是相同的,如果leader发生故障时,会自动将其中一个follower提升为leader,保证了系统的容错性、高可用性

集群模式
在这里插入图片描述

  • Kafka 的服务器端由被称为 Broker 的服务进程构成,即一个 Kafka 集群由多个 Broker 组成
  • 这样如果集群中某一台机器宕机其他机器上的 Broker 也依然能够对外提供服务。这其实就是 Kafka 提供高可用的手段之一

分区备份机制
主负责读写,从只负责当做副本,在主宕机了就上去当主
在这里插入图片描述

  • 一个topic有多个分区,每个分区有多个副本,其中有一个leader,其余的是follower,副本存储在不同的broker中
  • 所有的分区副本的内容是都是相同的,如果leader发生故障时,会自动将其中一个follower提升为leader

其实里面的follower从节点也分为两种,一种ISR节点(同步复制),一种普通副本节点(异步复制)
参考本文 2.6

在这里插入图片描述


2.5 解释一下复制机制中的ISR

ISR(in-sync replica)需要同步复制保存的follower
在这里插入图片描述

如果leader失效后,需要选出新的leader,选举的原则如下:

  • 第一:选举时优先从ISR中选定,因为这个列表中follower的数据是与leader同步的
  • 第二:如果ISR列表中的follower都不行了,就只能从其他follower中选取
    在这里插入图片描述

所以ISR类型的节点设置也需要根据实际设置,太多影响效率,太少当主节点宕机可能会出现不够用,
ISR-follower和主节点复制是同步的,数据完整性强,普通follower是异步复制完成的,数据的完整性肯定不如ISR-follower,若都设置为ISR节点,虽然数据完整性强,同步必然导致阻塞,所以只有在ISR节点不够用的情况下,才会去考虑拿普通的节点来充当为主节点


2.6 Kafka数据清理机制了解过嘛

Kafka存储结构

  • Kafka中topic的数据存储在分区上,分区如果文件过大会分段存储segment
  • 每个分段都在磁盘上以索引(xxxx.index)和日志文件(xxxx.log)的形式存储
  • 分段的好处是,第一能够减少单个文件内容的大小,查找数据方便,第二方便kafka进行日志清理。

日志的清理策略有两个:

  • 根据消息的保留时间,当消息保存的时间超过了指定的时间,就会触发清理,默认是168小时( 7天)
  • 根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阈值(默认1G),则开始删除最久的消息。(默认关闭)

首先得知道kafka的数据存储结构

在这里插入图片描述

为什么分段:
删除无用文件方便,提高磁盘利用率
查找数据便捷

文件的命令基本上都是按照偏移量来命名的,查找方便

数据清理机制
在这里插入图片描述

  1. List item

2.7 Kafka中实现高性能的设计有了解过嘛

  1. 消息分区:不受单台服务器的限制,可以不受限的处理更多的数据
    在这里插入图片描述

  2. 顺序读写:磁盘顺序读写,提升读写效率

  3. 页缓存:把磁盘中的数据缓存到内存中,把对磁盘的访问变为对内存的访问(访问内存自然比直接访问磁盘快)

  4. 零拷贝:减少上下文切换及数据拷贝

  5. 消息压缩:减少磁盘IO和网络IO

  6. 分批发送:将消息打包批量发送,减少网络开销

顺序读写:磁盘顺序读写,提升读写效率
在这里插入图片描述

在这里插入图片描述

零拷贝:减少上下文切换及数据拷贝(关键)
一般的消费者去消费的过程包含4次拷贝(因为消费者和生产者一般不处于一个服务器,需要由网卡转发给别的服务器的消费者)
在这里插入图片描述
零拷贝就省略了从页缓存取出数据,由kafka交给网卡转发给消费者,而是直接由页缓存把数据交给网卡,再转交给消费者
在这里插入图片描述

既减少了用户态和内核态的切换(上下文切换)也减少了IO拷贝带来的开销


更新中

参考来自黑马程序员

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/898950.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【数据结构OJ题】有效的括号

原题链接:https://leetcode.cn/problems/valid-parentheses/ 目录 1. 题目描述 2. 思路分析 3. 代码实现 1. 题目描述 2. 思路分析 这道题目主要考查了栈的特性: 题目的意思主要是要做到3点匹配:类型、顺序、数量。 题目给的例子是比较…

实现数字化成功:5R模式如何支持车企数字化营销

01 车企进入“大逃杀”时间 汽车行业一边是出口“捷报频传”,一边是内销“压力山大”。 内销的难,在之前中部某省的政府“骨折价”补贴掀起的“价格战”中已经可见一斑。这一颇具标志性的事件反映了汽车行业,尤其是燃油车行业正处在巨大的转…

uni-app 经验分享,从入门到离职(二)—— tabBar 底部导航栏实战篇

文章目录 📋前言⏬关于专栏 🎯关于小程序 tabbar 的一些知识🎯创建一个基本的 tabBar📝最后 📋前言 这篇文章的内容主题是关于小程序的 tabBar 底部导航栏的入门使用和实战技巧。通过上一篇文章的基础,我们…

学习笔记230801--vue项目图片绝对路径和相对路径引入编译加载问题

问题描述&#xff1a; 在组件中引入图片出现了问题,<img>标签的src属性&#xff0c;动态绑定import引入的绝对路径图片或者直接在src静态引入图片绝对路径都可以在页面渲染出来&#xff0c;在浏览器可以看到路径都转成了dataUrl&#xff0c;但是动态绑定图片的绝对路径却…

7.maven

1 初始Maven 1.1 什么是Maven Maven是Apache旗下的一个开源项目&#xff0c;是一款用于管理和构建java项目的工具。 官网&#xff1a;https://maven.apache.org/ Apache 软件基金会&#xff0c;成立于1999年7月&#xff0c;是目前世界上最大的最受欢迎的开源软件基金会&…

DHCPV6试验1:节点自动发现DHCPV6 Server,LLA地址自动配置,GUA地址配通

1、建的拓朴图如下&#xff1a; * 这里&#xff0c;我们没有配置任何DHCPV6&#xff0c;所有的都是测试自动配置的LLA地址 2、配置路由器和PC&#xff1a; 这里我们设置PC1和PC2为DHCPV6自动获取。AR路由器为全局ipv6&#xff0c;并在节点上配置ipv6 enable。 ipv6 interfa…

VB6编程IEEE浮点算法实践

纯代码实现浮点计算实际上对浮点算法的再实践。IEEE浮点表示法是Modbus RTU协议至今还在用的传送编码&#xff0c;更是WITS 1记录标准的基础。以往实现 MKI、CVI&#xff0c;MKL、CVL&#xff0c;MKS、CVS&#xff0c;MKD、CVD在高级语言里封装了现成的语句&#xff0c;现在Pow…

vue3实现扇形展示

vue3实现扇形展示 效果 html部分 <div class"box1"><div class"box"><div class"single" v-for"(item,index) in arr" :key"index":style"transform:rotate(angle[index]deg);transform-origin: 10px…

LLM应用的例子LLM use cases and tasks

您可能会认为LLMs和生成性AI主要关注聊天任务。毕竟&#xff0c;聊天机器人非常受到关注并且备受瞩目。下一个词的预测是许多不同功能背后的基本概念&#xff0c;从基本的聊天机器人开始。 但是&#xff0c;您可以使用这种概念上简单的技术执行文本生成中的其他各种任务。例如…

分布式锁实现方式

分布式锁 1 分布式锁介绍 1.1 什么是分布式 一个大型的系统往往被分为几个子系统来做&#xff0c;一个子系统可以部署在一台机器的多个 JVM(java虚拟机) 上&#xff0c;也可以部署在多台机器上。但是每一个系统不是独立的&#xff0c;不是完全独立的。需要相互通信&#xff…

作为一个产品经理怎么做一个项目的需求文档?(附有需求文档的部分展示)

&#x1f973;&#x1f973;Welcome Huihuis Code World ! !&#x1f973;&#x1f973; 接下来看看由辉辉所写的关于需求文档的相关操作吧 首先&#xff0c;我们需求明确的是&#xff0c;一个产品经理究竟需要做些什么&#xff1f;在项目的阶段中起到哪一些作用 一.编写产品需…

大数据面试题:Spark的任务执行流程

面试题来源&#xff1a; 《大数据面试题 V4.0》 大数据面试题V3.0&#xff0c;523道题&#xff0c;679页&#xff0c;46w字 可回答&#xff1a;1&#xff09;Spark的工作流程&#xff1f;2&#xff09;Spark的调度流程&#xff1b;3&#xff09;Spark的任务调度原理&#xf…

插入排序优化——超越归并排序的超级算法

插入排序及优化 插入排序算法算法讲解数据模拟代码 优化思路一、二分查找二、copy函数 优化后代码算法的用途题目&#xff1a;数星星&#xff08;POJ2352 star&#xff09;输入输出格式输入格式&#xff1a;输出格式 输入输出样例输入样例输出样例 题目讲解步骤如下AC 代码 插入…

GPDB-疑难杂症-PlaceHolderVar

GPDB-疑难杂症-PlaceHolderVar 从GPDB5升级到GPDB6时&#xff0c;遇到以往可以执行的SQL不能执行了。报错&#xff1a;PlaceHolderVar found where not expected!语法不兼容了&#xff1f; postgres# CREATE TABLE t1( id1 int) WITH (appendonlytrue, compresstypenone, b…

@Repeatable的作用以及具体如何使用

文章目录 1. 前言2. 先说结论3. 案例演示 1. 前言 最近无意看到某些注解上有Repeatable&#xff0c;出于比较好奇&#xff0c;因此稍微研究并写下此文章。 2. 先说结论 Repeatable的作用&#xff1a;使被他注释的注解可以在同一个地方重复使用。 具体使用如下&#xff1a; T…

shell脚本文本 三剑客AWK

TOC 一.AWK工具介绍 AWK是一种处理文本文件的语言&#xff0c;是一个强大的文本分析工具可以在无交互的模式下实现复杂的文本操作相较于sed常作用于一整行的处理&#xff0c;awk则比较倾向于一行当中分成数个字段来处理&#xff0c;因为awk相当适合小型的文本数据 1.1AWK命令…

听GPT 讲Prometheus源代码--discovery

Prometheus是一个开源的系统监控和警报工具包&#xff0c;以下是Prometheus源代码中一些主要的文件夹及其作用&#xff1a; cmd/&#xff1a;这个目录包含了Prometheus主要的命令行工具&#xff0c;如prometheus/&#xff0c;promtool/等。每个子目录都代表一个可执行的命令行应…

Unsafe upfileupload

文章目录 client checkMIME Typegetimagesize 文件上传功能在web应用系统很常见&#xff0c;比如很多网站注册的时候需要上传头像、上传附件等等。当用户点击上传按钮后&#xff0c;后台会对上传的文件进行判断 比如是否是指定的类型、后缀名、大小等等&#xff0c;然后将其按…

高德地图开发者平台Python应用实践:快速入门周边商业环境信息查询

高德地图开发平台提供了丰富的API接口&#xff0c;可以方便地进行地图数据的开发和分析。在商业分析数据采集中&#xff0c;使用高德地图开发平台的周边查询功能可以快速获取周边商圈、小区等信息&#xff0c;为商业决策提供数据支持。 针对您的需求&#xff0c;我建议采用以下…

stream.map return

出现以下告警信息 Statement lambda can be replaced with expression lambda less... (CtrlF1) This inspection reports lambda expressions with code block bodies when expression-style bodies can be used 将 List<StudentDetailDto> studentDetailDtoList link…