kafka Streams
1. Kafka 高级消费者高阶消费者是一把双刃剑,一方面简化了编程,一方面也由于编程者参与的功能过少, 可控内容过少而造成很多问题。(1) 自动负载均衡高阶消费者为了简化编程,封装了一系列 API,这套 API 会均匀地将分区分配给消费者 线程,消费者消费哪个分区不由消费者决定,而是由高阶 API 决定,如果有消费者线程挂 掉了,高阶 API 会检测到,进而进行重新分...
1. Kafka Streams
Kafka Streams。Apache Kafka开源项目的一个组成部分。是一个功能强大,易于使用的库。用于在Kafka上构建高可分布式、拓展性,容错的应用程序。
2.Kafka Streams特点
(1) 功能强大
① 高扩展性,弹性,容错
(2) 轻量级
① 无需专门的集群
② 一个库,而不是框架
(3) 完全集成
① 100%的Kafka 0.10.0版本兼容
② 易于集成到现有的应用程序
(4) 实时性
① 毫秒级延迟
② 并非微批处理
③ 窗口允许乱序数据
④ 允许迟到数据
3.为什么要有Kafka Stream
当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有Spark Streaming和Apache Storm。Apache Storm发展多年,应用广泛,提供记录级别的处理能力,当前也支持SQL on Stream。而Spark Streaming基于Apache Spark,可以非常方便与图计算,SQL处理等集成,功能强大,对于熟悉其它Spark应用开发的用户而言使用门槛低。另外,目前主流的Hadoop发行版,如Cloudera和Hortonworks,都集成了Apache Storm和Apache Spark,使得部署更容易。
既然Apache Spark与Apache Storm拥用如此多的优势,那为何还需要Kafka Stream呢?主要有如下原因。
第一,Spark和Storm都是流式处理框架,而Kafka Stream提供的是一个基于Kafka的流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难了解框架的具体运行方式,从而使得调试成本高,并且使用受限。而Kafka Stream作为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试,
第二,虽然Cloudera与Hortonworks方便了Storm和Spark的部署,但是这些框架的部署仍然相对复杂。而Kafka Stream作为类库,可以非常方便的嵌入应用程序中,它对应用的打包和部署基本没有任何要求。
第三,就流式处理系统而言,基本都支持Kafka作为数据源。例如Storm具有专门的kafka-spout,而Spark也提供专门的spark-streaming-kafka模块。事实上,Kafka基本上是主流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了Kafka,此时使用Kafka Stream的成本非常低。
第四,使用Storm或Spark Streaming时,需要为框架本身的进程预留资源,如Storm的supervisor和Spark on YARN的node manager。即使对于应用实例而言,框架本身也会占用部分资源,如Spark Streaming需要为shuffle和storage预留内存。但是Kafka作为类库不占用系统资源。
第五,由于Kafka本身提供数据持久化,因此Kafka Stream提供滚动部署和滚动升级以及重新计算的能力。
第六,由于Kafka Consumer Rebalance机制,Kafka Stream可以在线动态调整并行度。
4.Kafka Stream数据清洗案例
(1) 需求
实时处理单词带有”>>>”前缀的内容。例如输入”kafka>>>ximenqing”,最终处理成“ximenqing”
(2) 需求分析
(3) 案例实操
① 创建一个工程,并添加jar包
② 创建主类
/**
* 主类
*/
public class Application {
public static void main(String[] args) {
//定义输入的topic
String from = "first";
String to = "second";
//设置参数
Properties settings = new Properties();
settings.put(StreamsConfig.APPLICATION_ID_CONFIG,"logFilter");
settings.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");
StreamsConfig config = new StreamsConfig(settings);
//创建拓图
TopologyBuilder builder = new TopologyBuilder();
builder.addSource("SOURCE", from)
.addProcessor("PROCESS", new ProcessorSupplier<byte[], byte[]>() {
public Processor<byte[], byte[]> get() {
// 具体分析处理
return new LogProcessor();
}
}, "SOURCE")
.addSink("SINK", to, "PROCESS");
//创建kafka stream
KafkaStreams stream = new KafkaStreams(builder,config);
stream.start();
}
}
③ 具体业务处理
/**
* 具体业务处理
*/
public class LogProcessor implements Processor<byte[], byte[]> {
private ProcessorContext context;
public void init(ProcessorContext context) {
this.context=context;
}
public void process(byte[] key, byte[] value) {
String input = new String(value);
if (input.contains(">>>")){
input=input.split(">>>")[1].trim();
context.forward("logProcessor".getBytes(),input.getBytes());
}else {
context.forward("logProcessor".getBytes(),input.getBytes());
}
}
public void punctuate(long timestamp) {
}
public void close() {
}
}
④ 运行程序
⑤ 在hadoop104上启动生产者
[luomk@hadoop104 kafka]$ bin/kafka-console-producer.sh --broker-list hadoop102:9092 --topic first
>kafka>>>luomk
>woaixuexi
⑥ 在hadoop102上启动消费者
[luomk@hadoop102 kafka]$ bin/kafka-console-consumer.sh -zookeeper hadoop102:2181 --topic second --consumer.config config/consumer.properties
luomk
woaixuexi
4.源码地址:https://github.com/luomingkui/kafka
更多推荐
所有评论(0)