kafka原理系列之(四)ACK机制(数据可靠性和持久性保证)

释放双眼,带上耳机,听听看~!

1、kafka的ack机制的分类

kafka原理系列之(四)ACK机制(数据可靠性和持久性保证)


1
2
3
1request.required.asks=0
2
3

当producer向leader发送数据时,可以通过request.required.acks参数来设置数据可靠性的级别:
0:这意味着producer无需等待来自broker的确认而继续发送下一批消息。这种情况下数据传输效率最高,
但是数据可靠性确是最低的。
1(默认):这意味着producer在ISR中的leader已成功收到的数据并得到确认后发送下一条message。
如果leader宕机了,则会丢失数据。
-1(或者是all):producer需要等待ISR中的所有follower都确认接收到数据后才算一次发送完成,可靠性最高。
但是这样也不能保证数据不丢失,比如当ISR中只有leader时(前面ISR那一节讲到,
ISR中的成员由于某些情况会增加也会减少,最少就只剩一个leader),这样就变成了acks=1的情况。

如果要提高数据的可靠性,在设置request.required.acks=-1的同时,也要min.insync.replicas这个参数
(可以在broker或者topic层面进行设置)的配合,这样才能发挥最大的功效。min.insync.replicas这个参数设定
ISR中的最小副本数是多少,默认值为1,当且仅当request.required.acks参数设置为-1时,此参数才生效。
如果ISR中的副本数少于min.insync.replicas配置的数量时,客户端会返回异常:
org.apache.kafka.common.errors.NotEnoughReplicasExceptoin: Messages are rejected since there are fewer in-sync replicas than required

2、kafka的消息发送过程分析

接下来对acks=1和-1的两种情况进行详细分析:

  1. request.required.acks=1

producer发送数据到leader,leader写本地日志成功,返回客户端成功;此时ISR中的副本还没有来得及拉取该消息,leader就宕机了,那么此次发送的消息就会丢失。
kafka原理系列之(四)ACK机制(数据可靠性和持久性保证)

  1. request.required.acks=-1

同步(Kafka默认为同步,即producer.type=sync)的发送模式,replication.factor>=2且min.insync.replicas>=2的情况下,不会丢失数据。
有两种典型情况。acks=-1的情况下(如无特殊说明,以下acks都表示为参数request.required.acks),数据发送到leader, ISR的follower全部完成数据同步后,leader此时挂掉,那么会选举出新的leader,数据不会丢失。
kafka原理系列之(四)ACK机制(数据可靠性和持久性保证)
acks=-1的情况下,数据发送到leader后 ,部分ISR的副本同步,leader此时挂掉。比如follower1h和follower2都有可能变成新的leader, producer端会得到返回异常,producer端会重新发送数据,数据可能会重复。

kafka原理系列之(四)ACK机制(数据可靠性和持久性保证)
当然上图中如果在leader crash的时候,follower2还没有同步到任何数据,而且follower2被选举为新的leader的话,这样消息就不会重复。

给TA打赏
共{{data.count}}人
人已打赏
安全网络

CDN安全市场到2022年价值76.3亿美元

2018-2-1 18:02:50

安全经验

Github 推出企业服务,更加强大且安全

2011-11-2 11:12:22

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索