flink sql为例:
    从kafka消费大概下面几种模式:
        每次都从最新消费:
            'scan.startup.mode' = 'latest-offset'
        每次都从最早消费:
            'scan.startup.mode' = 'earliest-offset'
        每次都从消费者组消费(如果消费者组不存在,则又分三种) 两行配置:
             'scan.startup.mode' = 'group-offsets'  // 第一行
                -- 消费者组不存在的情况'   //第二行
                    'properties.auto.offset.reset' = 'latest' // 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
                    'properties.auto.offset.reset' = 'earliest' // 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
                    'properties.auto.offset.reset' = 'none' // topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
        从固定时间戳消费(两行配置):
            'scan.startup.mode' = 'timestamp'
            'scan.startup.timestamp-millis' = '1657791107000'

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐