Flink 将报文解析后的数据推送到 kafka 中

  • 步骤

    1. 开启 kafka 集群

      # 三台节点都要开启 kafka 
      [root@node01 kafka]# bin/kafka-server-start.sh -daemon config/server.properties
      
    2. 使用 kafka tool 连接 kafka 集群,创建 topic

      # 第1种方式通过命令
      bin/kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --topic vehicledata --replication-factor 2 --partitions 3
      # 查看 kafka topic 的列表
      bin/kafka-topics.sh --zookeeper node01:2181,node02:2181,node03:2181 --list
      # 第2种 kafka tool 工具
      

image-20210920091015186

  1. 通过 flink 将解析后的报文 json 字符串推送到 kafka 中

    package cn.maynor.flink.source;
    
    import org.apache.flink.streaming.api.datastream.DataStreamSource;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
    import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema;
    import org.apache.kafka.clients.producer.ProducerConfig;
    import org.apache.kafka.clients.producer.ProducerRecord;
    
    import javax.annotation.Nullable;
    import java.util.Properties;
    
    /**
     * Author maynor
     * Date 2021/9/20 9:11
     * 实现flink将数据写入到kafka集群中
     * 开发步骤:
     * 1.开启流处理环境
     * 2.设置并行度、chk、重启策略等参数
     * 3.创建FlinkKafkaProducer类
     * 3.1.配置属性
     * 4.设置数据源
     * 5.执行流处理环境
     */
    public class FlinkKafkaWriter {
        public static void main(String[] args) {
            //1.开启流处理环境
            StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
            //2.设置并行度、chk、重启策略等参数
            env.setParallelism(1);
            //2.1.读取车辆 json 数据
            DataStreamSource<String> source = env
                    .readTextFile("F:\\1.授课视频\\4-车联网项目\\05_深圳24期\\全部讲义\\2-星途车联网系统第二章-原始终端数据实时ETL\\原始数据\\sourcedata.txt");
            //3.创建FlinkKafkaProducer类
            //3.1.配置属性
            Properties props = new Properties();
            props.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "node01:9092,node02:9092,node03:9092");
            props.setProperty(ProducerConfig.BATCH_SIZE_CONFIG, "5");
            props.setProperty(ProducerConfig.ACKS_CONFIG, "0");
            //props.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.flink.api.common.serialization.SimpleStringSchema");
    
            //3.2.实例化FlinkKafkaProducer
            FlinkKafkaProducer<String> producer = new FlinkKafkaProducer<>(
                    "vehicledata",
                    new KafkaSerializationSchema<String>() {
                        @Override
                        public ProducerRecord<byte[], byte[]> serialize(String element, @Nullable Long timestamp) {
                            return new ProducerRecord(
                                    "vehicledata",
                                    element.getBytes()
                            );
                        }
                    },
                    props,
                    FlinkKafkaProducer.Semantic.NONE
            );
    
            //4.设置数据源
            source.addSink(producer);
            //5.执行流处理环境
            try {
                env.execute();
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }
    

实时ETL开发

  • 创建模块 —— StreamingAnalysis
  • 导入项目的 pom 依赖
  • 常见包的含义 task , source ,sink ,entity
  • 配置文件的导入 conf.properties 和 logback.xml
  • 工具类的走读
    • 日期处理
    • 读取配置文件 静态代码块
    • 字符串常用工具 - 字符串翻转
    • JSON 字符串转对象

原始数据的实时ETL设置

开发的流程

image-20210920113801725

开发的类名 —— KafkaSourceDataTask

		//todo 1.创建流执行环境
        //todo 2.设置并行度 ①配置文件并行度设置 ②客户端设置 flink run -p 2 ③在程序中 env.setParallel(2) ④算子上并行度(级别最高)
        //todo 3.开启checkpoint及相应的配置,最大容忍次数,最大并行checkpoint个数,checkpoint间最短间隔时间,checkpoint的最大
        //todo 容忍的超时时间,checkpoint如果取消是否删除checkpoint 等
        //todo 4.开启重启策略
        //todo 5. 读取kafka中的数据
        //todo 5.1 设置 FlinkKafkaConsumer
        //todo 5.2 配置参数
        //todo 5.3 消费 kafka 的offset 提交给 flink 来管理
        //todo 6 env.addSource
        //todo 7 打印输出
        //todo 8 将读取出来的 json 字符串转换成 maynorDataObj
        //todo 9 将数据拆分成正确的数据和异常的数据
        //todo 10 将正确的数据保存到 hdfs
        //todo 11 将错误的数据保存到 hdfs 上
        //todo 12 将正确的数据写入到 hbase 中
        //todo 8 执行流环境

设置 checkpoint 中 statebackend

  • 配置的地方有两种

    1. 配置文件中 flink-conf.yaml
    2. 在 job 中配置 env.setStateBackend()
  • 配置的方式三种

    1. memorystatebackend
    2. fsStatebackend
    3. rocksdbStatebackend(状态特别大的使用)
  • 配置读取kafka的数据的设置

    
    

数据积压和反压机制

  • 就是生产的数据大于消费的数据的速度,造成数据的积压

  • 解决反压机制的方法

    image-20210809160703505

    通过 credit 和 反压策略解决数据堆积问题

    image-20210920162227213

抽象 BaseTask 用于处理数据流和读取kafka数据

  • 将公共的固定的代码抽象出来 BaseTask 抽象类
  • 使用 Flink 的自带的 ParameterTool 来接收 client 或 配置文件中的配置
Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐