案例讲解kafka的多分区watermark机制
最近还是有很多球友和微信群友反馈浪尖说watermark不理解,没办法浪尖又来了。watermark依赖的背景,可以是:事件时间,必须要在事件时间这个概念之上理解wate...
最近还是有很多球友和微信群友反馈浪尖说watermark不理解,没办法浪尖又来了。
watermark依赖的背景,可以是:
事件时间,必须要在事件时间这个概念之上理解watermark。
watermark更形象的理解可以理解为时间序列心跳吧,驱动流进行,而不是延迟时间,比如6s,这个不是watermark。
watermark就像心跳一样,驱动着流程序基于事件时间进行处理,watermark之所以说类似于序列心跳,是因为它携带了时间戳 t。Watermark(t)意味着算子当前的事件时间已经到达了时间 t,任何时间戳小于t的事件都不会再发过来,也即是时间戳小于t的事件就应该丢弃了。
上面的可以说是针对单并行度的流,只有一个流水线,怎么着也玩不出彩来。watermark会在每个并行度的source处或者其他算子内部添加,然后继续向前流动,假如流程序不存在shuffle那就没啥好说的了,每个单独的实例单独进行,这个要想理解要结合前面的一篇文章:
存在shuffle的话,就是一个算子会存在多个输入的话,当前事件时间就采用最小的事件时间。
kafkasource
kafka作为数据源的时候,假如消费的是多个topic或者多分区,那么由于分区消费是并行进行的,会打破数据在每个分区的数据性,这个是客户端性质决定的,除非你是一个消费者对应于一个分区。这种情况下,可以使用
Kafka-partition-aware watermark生成器,该生成器会在每个kafka消费者内部,为每个分区生成watermark,最后每个分区的watermark会想Stream shuffle watermark的合并机制一样合并。
代码示例
FlinkKafkaConsumer09<MyType> kafkaSource = new FlinkKafkaConsumer09<>("myTopic", schema, props);
kafkaSource.assignTimestampsAndWatermarks(new AscendingTimestampExtractor<MyType>() {
public long extractAscendingTimestamp(MyType element) {
return element.eventTimestamp();
}
});
DataStream<MyType> stream = env.addSource(kafkaSource);
flink与kafka整合的详细代码,关注公众号回复 w 即可获取。
推荐阅读:
与500位好友一起学习~
更多推荐
所有评论(0)