Kafka集群中的controller, rebalance, HW
1. controller
集群中谁来充当controller
每个broker启动时会向zk创建一个临时序号节点,获得的序号最小的那个broker将会作为集群中的controller,负责几件事:
当集群中有一个副本的leader挂掉,需要在集群中选举出一个新的leader,选举的规则是从isr集合中最左边获得。
当集群中有broker新增或减少,controller会同步信息给其他broker
当集群中有分区新增或减少,controller会同步信息给其他broker
2. rebalance机制
前提:消费组中的消费者没有指明分区来消费
触发的条件:当消费组中的消费者和分区的关系发生变化的时候
分区分配的策略:在rebalance之前,分区怎么分配会有三种策略
range:根据公式计算得到每个消费者消费哪几个区域:
前面的消费者是:(分区总数 / 消费者数量)+1
之后的消费者是:分区总数 / 消费者数量
轮询:大家轮着来
sticky:粘合策略,如果需要rebalance,会在之前已分配的基础上进行调整,不会改变之前的分配情况。如果这个策略没有开,那么就要进行全部的重新分配,建议开始。
3. HW和LEO
LEO是某个副本最后消息的消息位置(log-end-offset)
HW是已完成同步的位置。消息在写入broker时,且每个broker完成这条消息的同步后,hw才会变化。在这之前消费者是消费不到这条消息的。在同步完成之后,HW更新之后,消费者才能消费到这条消息,这样的目的是防止消息的丢失。
还有一种情况,如果broker0在更新完最新消息,且同步给了broker1,消费者已经读完最新消息,如果这时broker0挂掉,那么broker1会成为新的leader,这是最新消息会被消费者再次读取,造成了消费的重复读。
Kafka中的优化问题
1. 如何防止消息丢失
生产者:1) 使用同步发送 2) 把ack设成1或者all,并且设置同步的分区数>=2
消费者:把自动提交改成手动提交
2. 如何防止重复消费
在防止消息丢失的方案中,如果生产者发送完消息后,因为网络抖动,没有收到ack,但实际上broker已经收到了。此时生产者会进行重试,于是broker就会收到多条相同的消息,而造成消费者的重复消费。
怎么解决:
生产者关闭重试:会造成丢失消息(不建议)
消费者解决非幂等性消费问题:
所谓幂等性:多次访问的结果是一样的。对于restful的请求(get(幂等), post(非幂等), put(幂等), delete(幂等))
解决方案:
在数据库中创建联合索引,防止相同的主键创建出多条记录
使用分布式锁,以业务id为锁,保证只有一条记录能够创建成功
3. 如何做到消息的顺序消费
生产者:保证消息按顺序消费,且消息不丢失 -- 使用同步的发送,ack设置成非0的值
消费者:主题只能设置一个分区,消费组中只能有一个消费者
kafka的顺序消费使用场景不多,因为牺牲掉了性能,但是比如RocketMQ在这一块有专门的功能已设计好。
4. 如何解决消息积压问题
1) 消息积压问题的出现
消息的消费者的消费速度,远赶不上生产者的生产消息的速度,导致kafka中有大量的数据没有被消费。随着没有被消费的数据堆积越多,消费者寻址的性能会越来越差,最后导致整个kafka对外提供的服务的性能很差,从而造成其他服务也访问速度变慢,造成服务雪崩。
2) 消息积压的解决方案
在这个消费者中,使用多线程,充分利用机器的性能进行消息消费
通过业务的架构设计,提升业务层面消费的性能
创建多个消费组,多个消费者,部署到其他机器上,一起消费,提高消费者的消费速度
创建一个消费者,该消费者在kafka另建一个主题,配上多个分区,多个分区再配上多个消费者。该消费者将poll下来的消息,不进行消费,直接转发到新建的主题上。此时,新的主题的多个分区的多个消费者就开始一起消费了。--不常用
5. 实现延时队列的效果
1) 应用场景
订单创建后,超过30分钟没有支付,则需要取消订单,这种场景可以通过延时队列来实现
2) 具体方案
kafka中创建相应的主题
消费者消费该主题的消息(轮询)
消费者消费消息时判断消息的创建时间和当前时间是否超过30分钟(前提是订单没支付)
如果是:去数据库中修改订单状态为已取消
如果否:记录当前消息的offset,并不再继续消费之后的消息,等待1分钟之后,再次向kafka拉取该offset及之后的消息,继续进行判断,以此反复。
6. 搭建kafka-wagle监控平台
去kafka-eagle官网下载压缩包
Download - EFAK (kafka-eagle.org)
分配一台虚拟机
虚拟机中安装jdk
解压缩kafka-eagle的压缩包
给kafka-eagle配置环境变量
需要修改kafka-eagle内部的配置文件:vim system-config.properties
修改里面的zk的地址和mysql的地址
进入到bin中,通过命令来启动