一、kafka消息队列

消息服务, 简称MQ
用于在分布式业务环境,实现不同组件、不同的功能模块的高效通信

代表性的MQ软件:
kafka, 十万并发
RocketMQ 百万并发
rabbitMQ
zeroMQ

二、消息服务的术语

在这里插入图片描述

  • producer 生产者
    产生消息的进程

  • consumer 消费者
    接收、处理消息的进程

  • broker 消息服务器

  • topics 主题
    消息的分组,根据业务不同的模块建不同的主题

  • partation 分区
    确保某一个主题的消息的有序性

三、kafka消息确认机制 ACK

producer发送消息后,leader将消息同步给follower,然后返回ack给producer,表示消息已收到,此时才可以继续发送下一条消息。

kafka提供了以下3种ack级别:
0:leader接收到消息马上返回ack,此时可能还没有写入磁盘,可能丢失数据
1:leader将消息写入磁盘后,马上返回ack,此时可能还没同步follower,同样可能丢失数据
-1(all):leader和follower都将数据写入磁盘后,返回ack。但是如果在写入磁盘后,ack尚未发送,此时leader发生故障,会导致数据写入重复

四、kafka安装部署

1、环境规划

192.168.140.10 kafka
192.168.140.11 kafka
192.168.140.12 kafka

2、使用事先部署好的zookeeper管理kafka的高可用

3、安装jdk

4、安装kafka

[root@node01 ~]# tar xf kafka_2.12-3.3.1.tgz -C /usr/local/
[root@node01 ~]# mv /usr/local/kafka_2.12-3.3.1/ /usr/local/kafka33

[root@node01 ~]# vim /etc/profile
export KAFKA_HOME=/usr/local/kafka33
export PATH=$PATH:$JAVA_HOME/bin:$KAFKA_HOME/bin

[root@node01 ~]# source /etc/profile

5、配置kafka

[root@node01 ~]# mkdir /usr/local/kafka33/log
[root@node01 ~]# vim /usr/local/kafka33/config/server.properties

broker.id=0

listeners=PLAINTEXT://192.168.140.10:9092
log.dirs=/usr/local/kafka33/log

num.network.threads=8
num.io.threads=16

zookeeper.connect=192.168.140.10:2181,192.168.140.11:2181,192.168.140.12:2181

另外两台消息服务器配置参考上述,注意修改broker id、监听IP

6、启动kafka

[root@node01 bin]# ./kafka-server-start.sh -daemon /usr/local/kafka33/config/server.properties 
[root@node01 bin]# 
[root@node01 bin]# netstat -tunlp | grep 9092
tcp6       0      0 192.168.140.10:9092     :::*                    LISTEN      12309/java          
[root@node01 bin]# 
[root@node01 bin]# 

在zookeeper中查看kafka注册的数据

[root@node01 bin]#  /usr/local/zookeeper/bin/zkCli.sh

[zk: localhost:2181(CONNECTED) 0] ls /brokers 
[ids, seqid, topics]
[zk: localhost:2181(CONNECTED) 1] ls /brokers/ids 
[0, 1, 2]
[zk: localhost:2181(CONNECTED) 2] ls /brokers/ids/0
[]
[zk: localhost:2181(CONNECTED) 3] 
[zk: localhost:2181(CONNECTED) 3] get /brokers/ids/0
{"listener_security_protocol_map":{"PLAINTEXT":"PLAINTEXT"},"endpoints":["PLAINTEXT://192.168.140.10:9092"],"jmx_port":-1,"features":{},"host":"192.168.140.10","timestamp":"1718782930115","port":9092,"version":5}

7、测试生产者、消费者模型

7.1 创建主题

[root@node01 ~]# kafka-topics.sh --create --topic test --replication-factor 1 --partitions 1 --bootstrap-server 192.168.140.10:9092
Created topic test.
[root@node01 ~]# 
[root@node01 ~]# kafka-topics.sh --list --bootstrap-server 192.168.140.10:9092
test
[root@node01 ~]# 

7.2 测试生产者产生数据

[root@node01 ~]# kafka-console-producer.sh --broker-list 192.168.140.10:9092 --topic test
>nginx
>httpd
>php
>mysql
>redis

7.3 测试消费者接收数据

[root@node01 ~]# kafka-console-consumer.sh --bootstrap-server 192.168.140.10:9092 --topic test --from-beginning
nginx
httpd
php
mysql
redis

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐