What

Broker

在Kafka中,Broker是指Kafka集群中的一个节点(服务器)或一个实例。每个Broker都是独立运行的Kafka服务器,负责接收、存储和转发消息。它们协同工作以构建一个分布式、高可靠性的消息系统。

Controller

Controller是Kafka集群中的一种特殊角色,每个时刻只有一个Broker扮演Controller角色。Controller负责管理整个Kafka集群的元数据信息,包括维护Topic 、Partition的状态以及监控Broker的健康状态。当发生故障或者新的Broker加入集群时,Controller会负责重新分配Partition的副本。

Partition

Partition是Kafka中对消息进行分区的概念。一个Topic可以被划分为多个Partition,每个Partition是一个有序且持久化存储的消息日志。每条消息都被写入到一个特定的Partition,并且每个Partition可以在不同的Broker上进行复制,以提供高可用性和容错性。

Replication

在Kafka中,消息的副本复制是为了提供高可用性和数据冗余。每个Partition可以配置多个副本,其中一个副本称为Leader,其余的副本称为Follower。Leader负责处理读写请求,而Follower则通过复制Leader的消息来提供备份和容错能力。如果Leader发生故障,Controller将从Follower中选举出新的Leader。

Topic

Topic是Kafka中消息发布和订阅的逻辑名称。它是一个消息的分类或者主题。生产者(Producer)将消息发送到特定的Topic,而消费者(Consumer)则订阅感兴趣的Topic来接收消息。每个Topic可以划分为多个Partition,并且可以在多个Broker上进行复制以实现高可用性。

Producer

消息的生产者

Consumer

消息的消费者,同一个消费组如果是在生产者单播的情况下,就只能由一个消费者进行消费,防止重复消费

这些概念之间的关系如下:一个Kafka集群由多个Broker组成,每个Broker负责存储和传输消息。集群中有一个Controller负责管理元数据和协调操作。每个Topic可以划分为多个Partition,每个Partition可以在多个Broker上进行复制。这种分区和复制的机制提供了高吞吐量、可扩展性和容错性的特性,使得Kafka成为一种强大的分布式消息系统。

在这里插入图片描述

Why

为什么有多个分区

  1. 同一个主题有了多个分区,那么我就可以多个生产者并行的写到同一个的主题的不同分区。显然能提高写的吞吐量;
    同理消费的时候也可从同一个主题的不同分区并行消费,提高读的吞吐量。
  2. 如果同一主题消息过大过多,那么分区可以解决存储文件过大的问题。

为什么有副本

防止leader挂了之后,无法提供服务;如果副本(follower)存在就可以成为新的leader提供数据服务。

How

搭建集群

# zookeeper进行节点管理、监控
docker pull wurstmeister/zookeeper

docker run -d --name zookeeper -p 2181:2181 -t wurstmeister/zookeeper

# kafka集群搭建
docker search kafka --limit=50
docker pull wurstmeister/kafka

docker run -d --name kafka0 -p 9092:9092 -e KAFKA_BROKER_ID=0 -e KAFKA_ZOOKEEPER_CONNECT=master:2181 -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://master:9092 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 -t wurstmeister/kafka

docker run -d --name kafka1 -p 9093:9093 -e KAFKA_BROKER_ID=1 -e KAFKA_ZOOKEEPER_CONNECT=master:2181 -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://master:9093 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9093 -t wurstmeister/kafka

docker run -d --name kafka2 -p 9094:9094 -e KAFKA_BROKER_ID=2 -e KAFKA_ZOOKEEPER_CONNECT=master:2181 -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://master:9094 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9094 -t wurstmeister/kafka

Java简单使用

Producer

AsyncProducer:异步发送

SyncProducer:同步发送

在同步发消息的场景下:生产者发动broker上后,ack会有 3 种不同的选择:

  1. acks=0:
    表示producer不需要等待任何broker确认收到消息的回复,就可以继续发送下一条消息。性能最高,但是最容易丢消息。
  2. acks=1:
    至少要等待leader已经成功将数据写入本地log,但是不需要等待所有follower是否成功写入。就可以继续发送下一条消息。这种情况下,如果follower没有成功备份数据,而此时leader又挂掉,则消息会丢失。
  3. acks=-1或all: 需要等待 min.insync.replicas(默认为 1 ,推荐配置大于等于2)
    这个参数配置的副本个数都成功写入日志,这种策略会保证只要有一个备份存活就不会丢失数据。这是最强的数据保证。一般除非是金融级别,或跟钱打交道的场景才会使用这种配置。

重试机制 & 消息缓冲区

  • 发送会默认会重试 3 次,每次间隔100ms
  • 发送的消息会先进入到本地缓冲区(32mb),kafka会跑一个线程,该线程去缓冲区中取16k的数据,发送到kafka,如果到
    10 毫秒数据没取满16k,也会发送一次。
   //批次大小
   properties.put(ProducerConfig.BATCH_SIZE_CONFIG,"16384"); 
   //多长时间发送一个批次
   properties.put(ProducerConfig.LINGER_MS_CONFIG,"1");
   //最大缓存
   properties.put(ProducerConfig.BUFFER_MEMORY_CONFIG,"33554432")
Consumer

CustomerConsumer:简单的消费者

TimeConsumer:按照时间进行消费

offset提交方式
自动提交 - 默认
```java
   // 是否自动提交offset,默认就是true
   props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true");
   // 自动提交offset的间隔时间
   props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");
```
消费者poll到消息后默认情况下,会自动向broker的_consumer_offsets主题提交当前主题-分区消费的偏移量。

自动提交会丢消息: 因为如果消费者还没消费完poll下来的消息就自动提交了偏移量,那么此 时消费者挂了,于是下一个消费者会从已提交的offset的下一个位置开始消费消息。之前未被消费的消息就丢失掉了
手动提交
  • 手动同步提交
    if (records.count() > 0 ) {
       // 手动同步提交offset,当前线程会阻塞直到offset提交成功
       // 一般使用同步提交,因为提交之后一般也没有什么逻辑代码了
       consumer.commitSync();
    }
  • 手动异步提交
     if (records.count() > 0 ) {
         // 手动异步提交offset,当前线程提交offset不会阻塞,可以继续处理后面的程序逻辑
         consumer.commitAsync(new OffsetCommitCallback() {
             @Override
                 public void onComplete(Map<TopicPartition, OffsetAndMetadata>offsets, Exception exception) {
                     if (exception != null) {
                         System.err.println("Commit failed for " + offsets);
                         System.err.println("Commit failed exception: " +exception.getStackTrace());
                 }
             }
         });
     }
消费者poll消息的过程
  • 消费者建立了与broker之间的⻓连接,开始poll消息。
  • 默认一次poll 500条消息
    props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 500 );

可以根据消费速度的快慢来设置,因为如果两次poll的时间如果超出了30s的时间间隔,kafka会认为其消费能力过弱,将其踢出消费组。将分区分配给其他消费者。可以通过这个值进行设置:

props.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, 30 * 1000 );

每次poll的时间为1s。

  • 如果1s内直接poll到500条消息那么直接消费消息并进入下一轮poll;
  • 如果1s内没有poll到500条消息,则继续去poll消息,循环往复直到累计500条或者到了1s。
    • 如果poll到消息了,就开始消费1s内poll到的消息。
    • 如果没有poll到就直接进入下一轮poll
ConsumerRecords<String, String> records =consumer.poll(Duration.ofMillis( 1000 ));

消费者发送心跳的时间间隔

props.put(ConsumerConfig.HEARTBEAT_INTERVAL_MS_CONFIG, 1000 );

kafka如果超过 10秒没有收到消费者的心跳,则会把消费者踢出消费组,进行rebalance,把分区分配给其他消费者。

props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 10 * 1000 );
指定分区消费
consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
消息回溯消费
consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
consumer.seekToBeginning(Arrays.asList(new TopicPartition(TOPIC_NAME,0 )));
指定offset消费
consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
consumer.seek(new TopicPartition(TOPIC_NAME, 0 ), 10 );
新消费组的消费偏移量

当消费主题的是一个新的消费组,或者指定offset的消费方式,offset不存在,那么应该如何消费?

  • latest(默认) :只消费自己启动之后发送到主题的消息
  • earliest:第一次从头开始消费,以后按照消费offset记录继续消费,这个需要区别于consumer.seekToBeginning(每次都从头开始消费)
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");

重点

Controller、Rebalance和HW

Controller

Kafka集群中的broker在zk中创建临时序号节点,序号最小的节点(最先创建的节点)将作为集群的controller,负责管理整个集群中的所有分区和副本的状态:

  • 当某个分区的leader副本出现故障时,由控制器负责为该分区选举新的leader副本。
  • 当检测到某个分区的ISR集合发生变化时,由控制器负责通知所有broker更新其元数据信息。
  • 当使用kafka-topics.sh脚本为某个topic增加分区数量时,同样还是由控制器负责让新分区被其他节点感知到。
Rebalance

该机制前提是:消费者没有指明分区消费。当消费组里消费者和分区的关系发生变化,那么就会触发rebalance机制。

这个机制会重新调整消费者消费哪个分区。在触发rebalance机制之前,消费者消费哪个分区有三种策略:

  • range:通过公式来计算某个消费者消费哪个分区
  • 轮询:大家轮着消费
  • sticky:在触发了rebalance后,在消费者消费的原分区不变的基础上对剩下的分区进行调整。
HW和LEO

HW俗称高水位,HighWatermark的缩写,取一个partition对应的ISR中最小的LEO(log-end-offset)作为HW,consumer 最多只能消费到HW所在的位置。另外每个replica都有HW,leader和follower各自负责更新自己的HW的状态。对于leader新写入的消息,consumer不能立刻消费,leader会等待该消息被所有ISR中的replicas同步后更新HW,此时消息才能被consumer消费。这样就保证 了如果leader所在的broker失效,该消息仍然可以从新选举的leader中获取。

在这里插入图片描述

Kafka线上问题优化

如何防止消息丢失
  • 发送方: ack是 1 或者-1/all
    可以防止消息丢失,如果要做到99.9999%,ack设成all;也可以把min.insync.replicas配置成副本大于等于2
  • 消费方:把自动提交改为手动提交。
  • 定时任务 && 人工
如何防止消息的重复消费

一条消息被消费者消费多次。如果为了消息的不重复消费,而把生产端的重试机制关闭、消费端的手动提交改成自动提交,这样反而会出现消息丢失,那么可以直接在防消息丢失的手段上加上消费消息时的幂等性保证,就能解决消息的重复消费问题。

幂等性如何保证
  • mysql 插入业务id作为主键,主键是唯一的,所以一次只能插入一条
  • 使用redis或zk的分布式锁(主流的方案)
如何做到顺序消费
  • 发送方:在发送时将ack不能设置 0 ,使用同步发送,等到发送成功再发送下一条。确保消息是顺序发送的。
  • 接收方:消息是发送到一个分区中,只能有一个消费组的消费者来接收消息。因此,kafka的顺序消费会牺牲掉性能。
解决消息积压问题

消息积压会导致很多问题,比如磁盘被打满、生产端发消息导致kafka性能过慢,就容易出现服务雪崩,就需要有相应的手段:

  1. 在一个消费者中启动多个线程,让多个线程同时消费来提升一个消费者的消费能力(增加分区增加消费者)
  2. 如果方案一还不够的话,这个时候可以启动多个消费者,多个消费者部署在不同的服务器上。其实多个消费者部署在同一服务器上也可以提高消费能力来充分利用服务器的cpu资源。
  3. 让一个消费者去把收到的消息往另外一个topic上发,另一个topic设置多个分区和多个消费者,进行具体的业务消费
延迟队列

延迟队列的应用场景:在订单创建成功后如果超过 30
分钟没有付款,则需要取消订单,此时可用延时队列来实现.

创建多个topic,每个topic表示延时的间隔

topic_5s: 延时5s执行的队列

topic_1m: 延时 1 分钟执行的队列

topic_30m: 延时 30 分钟执行的队列

发送者发送消息到相应的topic,并带上消息的发送时间;消费者订阅相应的topic,消费时轮询消费整个topic中的消息

  • 如果消息的发送时间,和消费的当前时间超过预设的值,比如 30 分钟 则进行消费
  • 如果消息的发送时间,和消费的当前时间没有超过预设的值,则不消费当前的offset及之后的offset的所有消息。下次继续消费该offset处的消息,判断时间是否已满足预设值

附录

Kafka-eagle

  1. 安装Kafka-eagle 官网下载压缩包 http://www.kafka-eagle.org/

  2. 安装jdk

  3. 解压缩后修改配置文件system-config.properties

# 配置zk  去掉cluster2efak.zk.cluster.alias=cluster1cluster1.zk.list=172.16.253.35:2181
# cluster2.zk.list=xdn10:2181,xdn11:2181,xdn12:2181

# 配置mysql
kafka.eagle.driver=com.mysql.cj.jdbc.Driver
kafka.eagle.url=jdbc:mysql://master:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
kafka.eagle.username=root
kafka.eagle.password= 123456
  1. 修改/etc/profile
export  JAVA_HOME=/usr/local/jdk/jdk1.8.0_191
CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export KE_HOME=/home/aisys/efak-web-2.0.9
export PATH=$PATH:$KE_HOME/bin:$JAVA_HOME/bin
  1. 刷新配置
source /etc/profile
  1. 进入到bin目录,为ke.sh增加可执行的权限
chmod +x ke.sh
  1. 启动kafka-eagle
./ke.sh start

学习地址

kafka-learning

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐