Kafka 多线程消费者

Kafka 0.10.1.0 后,Kafka Consumer 变为双线程的设计 :

  • 用户主线程 : 启动 Consumer 的 main
  • 心跳线程 (Heartbeat Thread) : 定期对 Broker 发送心跳请求,探测消费者的存活性 (liveness)
  • 将心跳频率与主线程处理频率分开,对俩者进行解耦

老 Consumer 是多线程的架构 :

  • Fetcher 线程 : 每个 Consumer 给所有订阅的主题分区创建对应的消息获取线程
  • Consumer 是阻塞式的(blocking),Consumer 启动后,内部会创建很多阻塞式的消息获取迭代器

新 Consumer 设计了单线程 + 轮询的机制 , 实现非阻塞式的消息获取

多线程方案

KafkaConsumer 不是线程安全的 (thread-safe)

  • 所有的网络 I/O 处理都在用户主线程中,使用时要确保线程安全
  • 不能在多个线程中共享同个 Kafka Consumer,不然会 ConcurrentModificationException 异常

两套多线程方案 :

  1. 消费者启动多个线程,每个线程维护个 KafkaConsumer ,负责完整的消息获取、消息处理流程

在这里插入图片描述

  1. 消费者用单或多线程获取消息,同时创建多个消费线程执行消息处理逻辑

在这里插入图片描述

例子 : 消费者要做 1、2、3、4、5

  • 方法 1 : 工作划分为粗粒度,会创建多个线程,每个线程要执行 1、2、3、4、5,来实现并行处理,不能分割具体的子任务
  • 方法 2 : 更细粒度化,将 1、2 分割,用单线程(也可多线程),将 3、4、5,用别的多个线程
方案优点缺点
多线程 + 多 KafkaConsumer方便实现占更多系统资源
速度块, 无线程间交互开销线程数受限于主题分区数, 扩展性差
易于维护分区内的消费顺序线程处理消息易超时 , 会 Rebalance
单线程 + 单 KafkaConsumer + 消息处理 Worker 线程池可独立扩展消费获取线程数和 Worker 线程数实现难度高
可扩展性好难维护分区的消息消费顺序
处理链路长, 不易于位移提交管理

方案 1 优势 :

  • 实现简单,用多个线程在每个线程中创建各自 KafkaConsumer
  • 多个线程之间没有任何交互,能避开线程安全
  • 每个线程用各自 KafkaConsumer 来执行消息获取和消息处理逻辑,所以主题中的每个分区都能保证只被一个线程处理,容易实现分区内的消息消费顺序

方案 1 缺点 :

  • 每个线程都要维护自己的 KafkaConsumer ,会占用更多的系统资源,如 : 内存、TCP 连接
  • 线程数受限于 Consumer 订阅主题的总分区数 : 一个消费者组中,每个分区只能被组内的一个消费者所消费
  • 当一个消费者组订阅 100 个分区,那最多只能扩展到 100 个线程
  • 每个线程要执行消息获取和消息处理逻辑。一旦消息处理逻辑重,就造成消息处理速度慢,导致 Rebalance,从而引发整个消费者组的消费停滞

方案 2 优势 :

  • 将任务分为消息获取和消息处理的俩个线程
  • 高伸缩性 : 能独立调节消息获取的线程数,消息处理的线程数,不用考虑两者是否相互影响
  • 消费获取速度慢,就增加消费获取的线程数
  • 消息的处理速度慢,就增加 Worker 线程池线程数

方案 2 缺点 :

  • 实现难度大,要管理两组线程
  • 将消息获取和消息处理分开,无法保证分区内的消费顺序。如 : 在某个分区中,消息 1 在消息 2 前被保存,但Worker 线程可能先处理消息 2,再处理消息 1,会破坏消息在分区的顺序
  • 多组线程,让整个消息消费链路被拉长,位移提交困难,可能出现重复消费

方案 1 的代码 :

  • 创建 Runnable 类 : 执行消费获取和消费处理的逻辑
  • 每个 KafkaConsumerRunner 类都会创建各种 KafkaConsumer
public class KafkaConsumerRunner implements Runnable {
    private final AtomicBoolean closed = new AtomicBoolean(false);
    private final KafkaConsumer consumer;
    
    public void run() {
        try {
            consumer.subscribe(Arrays.asList("topic"));
            while (!closed.get()) {
                ConsumerRecords records = 
                consumer.poll(Duration.ofMillis(10000));
                //  执行消息处理逻辑
            }
        } catch (WakeupException e) {
            // Ignore exception if closing
            if (!closed.get()) throw e;
		} finally {
            consumer.close();
        }
    }
    
    // Shutdown hook which can be called from a separate thread
    public void shutdown() {
        closed.set(true);
        consumer.wakeup();
    }
}

方案 2 :

  • 由线程池负责处理具体的消息
private final KafkaConsumer<String, String> consumer;
private ExecutorService executors;
//...
private int workerNum = ...;

executors = new ThreadPoolExecutor(
    workerNum, workerNum, 0L, TimeUnit.MILLISECONDS,
    new ArrayBlockingQueue<>(1000), 
    new ThreadPoolExecutor.CallerRunsPolicy());

//...
while (true)  {
    ConsumerRecords<String, String> records = 
        consumer.poll(Duration.ofSeconds(1));
    
    for (final ConsumerRecord record : records) {
        executors.submit(new Worker(record));
    }
}
//..
Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐