最近还是有很多球友和微信群友反馈浪尖说watermark不理解,没办法浪尖又来了。

watermark依赖的背景,可以是:

  1. 事件时间,必须要在事件时间这个概念之上理解watermark。

  2. watermark更形象的理解可以理解为时间序列心跳吧,驱动流进行,而不是延迟时间,比如6s,这个不是watermark。

watermark就像心跳一样,驱动着流程序基于事件时间进行处理,watermark之所以说类似于序列心跳,是因为它携带了时间戳 t。Watermark(t)意味着算子当前的事件时间已经到达了时间 t,任何时间戳小于t的事件都不会再发过来,也即是时间戳小于t的事件就应该丢弃了。

640?wx_fmt=png

上面的可以说是针对单并行度的流,只有一个流水线,怎么着也玩不出彩来。watermark会在每个并行度的source处或者其他算子内部添加,然后继续向前流动,假如流程序不存在shuffle那就没啥好说的了,每个单独的实例单独进行,这个要想理解要结合前面的一篇文章:

结合Spark讲一下Flink的runtime

存在shuffle的话,就是一个算子会存在多个输入的话,当前事件时间就采用最小的事件时间。

640?wx_fmt=png

kafkasource

kafka作为数据源的时候,假如消费的是多个topic或者多分区,那么由于分区消费是并行进行的,会打破数据在每个分区的数据性,这个是客户端性质决定的,除非你是一个消费者对应于一个分区。这种情况下,可以使用

Kafka-partition-aware watermark生成器,该生成器会在每个kafka消费者内部,为每个分区生成watermark,最后每个分区的watermark会想Stream shuffle watermark的合并机制一样合并。

640?wx_fmt=png

代码示例

 
 

FlinkKafkaConsumer09<MyType> kafkaSource = new FlinkKafkaConsumer09<>("myTopic", schema, props);
kafkaSource.assignTimestampsAndWatermarks(new AscendingTimestampExtractor<MyType>() {

   @Override
   public long extractAscendingTimestamp(MyType element) {
       return element.eventTimestamp();
   }
});

DataStream<MyType> stream = env.addSource(kafkaSource);


flink与kafka整合的详细代码,关注公众号回复 w 即可获取。

推荐阅读:

简单理解scala的闭包

不懂watermark?来吧~

Flink迭代操作末文-迭代流

640?wx_fmt=png

与500位好友一起学习~

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐