一:kafka轮询

1:正常情况下来说,kafka轮询消费的意思就是客户端从kafka中获取数据是通过分批获取的方式,每隔一段时间获取一批数据。

2:但是能否正常在间隔时间内去拉取数据,要看你的业务处理逻辑是否在这个间隔时间内完成,如果在间隔时间内,处理逻辑还没有结束的话,kafka  poll就不会去获取数据,这样的话kafka集群就会认为你这个消费者已经死亡了,就会触发reblance,从而导致客户端无法正常消费。而控制两次pool之间的轮询间隔的参数就是。max.poll.interval.ms 默认是300s

二:当发现这个问题的时候如何解决?

1:首先判断你每一次poll获取的数据全部处理完要多久时间,然后更改max.poll.interval.ms,或者尝试优化处理逻辑代码以缩减处理时间,最终的目标就是让处理逻辑在max.poll.interval.ms之间运行完毕,不耽误下一次轮询数据即可。

2:pool获取的数据可以指定多少条,试着减少这个数量即可。默认情况下一次poo获取的数据量是,max.poll.records=500,你可以自己修改这个参数,以平衡处理数据时间,和过期死亡时间,其实这两种办法的思想都是一样的。

 

 

 

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐