Kafka Stream 数据清洗
1 概述编写关键任务实时应用程序和微服务的最简单方法,具有 Kafka 服务器端集群技术的所有优势。Kafka Streams 是 Apache Kafka 开源项目的一个组成部分。是一个功能强大,易于使用的库。用于在 Kafka 上构建高可分布式、拓展性,容错的应用程序。1.1 Kafka Stream 特点功能强大高扩展性,弹性,容错轻量级无需专...
1 概述
编写关键任务实时应用程序和微服务的最简单方法,具有 Kafka 服务器端集群技术的所有优势。
Kafka Streams 是 Apache Kafka 开源项目的一个组成部分。
是一个功能强大,易于使用的库。用于在 Kafka 上构建高可分布式、拓展性,容错的应用程序。
1.1 Kafka Stream 特点
-
功能强大
高扩展性,弹性,容错
-
轻量级
无需专门的集群 一个库,而不是框架
-
完全集成
100%的Kafka 0.10.0版本兼容 易于集成到现有的应用程序
-
实时性
毫秒级延迟 并非微批处理 窗口允许乱序数据 允许迟到数据
1.2 为什么要有Kafka Stream
当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有 Spark Streaming和Apache Storm。
Apache Storm发展多年,应用广泛,提供记录级别的处理能力,当前也支持 SQL on Stream。
而 Spark Streaming 基于 Apache Spark,可以非常方便与图计算,SQL处理等集成,功能强大,对于熟悉其它 Spark 应用开发的用户而言使用门槛低。
另外,目前主流的 Hadoop 发行版,如 Cloudera 和 Hortonworks,都集成了Apache Storm 和 Apache Spark,使得部署更容易。
既然 Apache Spark 与 Apache Storm 拥用如此多的优势,那为何还需要 Kafka Stream 呢?主要有如下原因。
第一,Spark 和 Storm 都是流式处理框架,而 Kafka Stream 提供的是一个基于Kafka 的流式处理类库。
框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难了解框架的具体运行方式,从而使得调试成本高,并且使用受限。
而 Kafka Stream 作为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试。
第二,虽然 Cloudera 与 Hortonworks 方便了 Storm 和 Spark 的部署,但是这些框架的部署仍然相对复杂。
而 Kafka Stream 作为类库,可以非常方便的嵌入应用程序中,它对应用的打包和部署基本没有任何要求。
第三,就流式处理系统而言,基本都支持 Kafka 作为数据源。
例如 Storm 具有专门的 kafka-spout,而 Spark 也提供专门的 spark-streaming-kafka 模块。
事实上,Kafka 基本上是主流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了 Kafka,此时使用 Kafka Stream 的成本非常低。
第四,使用 Storm 或 Spark Streaming 时,需要为框架本身的进程预留资源,如 Storm 的 supervisor 和 Spark on YARN 的 node manager。
即使对于应用实例而言,框架本身也会占用部分资源,如 Spark Streaming 需要为 shuffle和storage 预留内存。但是 Kafka 作为类库不占用系统资源。
第五,由于 Kafka 本身提供数据持久化,因此 Kafka Stream 提供滚动部署和滚动升级以及重新计算的能力。
第六,由于 Kafka Consumer Rebalance 机制,Kafka Stream 可以在线动态调整并行度。
2 Kafka Stream 数据清洗
需求
实时处理单词带有>>>
前缀的内容。例如输入 atguigu>>>ximenqing
,最终处理成 ximenqing
需求分析
实例操作
2. 代码
主类
package com.demo.kafka.stream;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsConfig;
import org.apache.kafka.streams.processor.Processor;
import org.apache.kafka.streams.processor.ProcessorSupplier;
import org.apache.kafka.streams.processor.TopologyBuilder;
import java.util.Properties;
public class MyStream {
public static void main(String[] args) {
final String sourceTopic = "first";
final String sinkTopic = "second";
// 1. 设置参数
Properties props = new Properties();
props.put(StreamsConfig.APPLICATION_ID_CONFIG, "mystreams");
props.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "hadoop201:9092");
// 2. 创建拓扑结构builder对象
TopologyBuilder builder = new TopologyBuilder()
.addSource("source", "first")
.addProcessor("processor", new MySupplier(), "source")
.addSink("sink", "second", "processor");
KafkaStreams streams = new KafkaStreams(builder, props);
// 3. 启动 kafka steams
streams.start();
}
}
具体业处理
package com.demo.kafka.stream;
import org.apache.kafka.streams.processor.Processor;
import org.apache.kafka.streams.processor.ProcessorContext;
import org.apache.kafka.streams.processor.ProcessorSupplier;
public class MySupplier implements ProcessorSupplier<byte[], byte[]> {
@Override
public Processor<byte[], byte[]> get() {
return new MyProcessor();
}
private class MyProcessor implements Processor<byte[], byte[]> {
private ProcessorContext context;
@Override
public void init(ProcessorContext context) {
this.context = context;
}
@Override
public void process(byte[] key, byte[] value) {
byte[] newValue = new String(value).replace(">>>", "").getBytes();
context.forward(key, newValue);
}
@Override
public void punctuate(long l) {
}
@Override
public void close() {
}
}
}
3. 测试
a:运行主程序
b:开启生成者向 topic first 写入数据
kafka-console-producer.sh --broker-list hadoop201:9092 --topic first
c: 开启消费者从 topic second 消费数据
kafka-console-consumer.sh --zookeeper hadoop201:2181 --topic second
d: 开始写入数据, 并观察消费消费的数据
写入的数据:
消费到的数据:
更多推荐
所有评论(0)