根据需求,给 Kafka 集群配置不使用 Kerberos 的 SASL+ACL 。Kafka 配置部分参考资料比较充足,这里参考了胡夕老师的《Apache Kafka 实战》中相关章节,配置过程顺利。Kafka Manager监控配置了 SASL Kafka 集群部分的资料比较少,在认证部分出现较多问题,最终配置出一个“能用”版本。Kafka_2.11-1.0.0  kafka-manager-1.3.3.23。

1. Kafka SASL+ACL

通过 producer、consumer、admin 实现了写入、读取和 consumer-group 控制权限的分离。没有配置 zookeeper 的 SASL

Broker 端

1. 创建 JAAS 文件,注意结尾两个分号,保存为 kafka_server_jaas.conf

KafkaServer {
        org.apache.kafka.common.security.plain.PlainLoginModule required
        username="admin"
        password="admin"
        user_admin="admin"
        user_producer="prod-sec"
        user_consumer="cons-sec";
};

由于 kafka-server-start.sh 只接收 server.properties 的位置,故需要修改启动脚本,cp 一份修改最后一行为

exec $base_dir/kafka-run-class.sh $EXTRA_ARGS -Djava.security.auth.login.config=$KAFKA_HOME/config/kafka_server_jaas.conf kafka.Kafka "$@"

2. 修改 broker 启动所需的 server.properties 文件,前五条必须

authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
listeners=SASL_PLAINTEXT://ip:9092
security.inter.broker.protocol=SASL_PLAINTEXT 
sasl.enabled.mechanisms=PLAIN 
sasl.mechanism.inter.broker.protocol=PLAIN 
#设置超级用户
super.users=User:admin
#一个参数allow.everyone.if.no.acl.found
#设置为true,ACL机制改为黑名单机制,只有黑名单中的用户无法访问
#设置为false,ACL机制改为白名单机制,只有白名单中的用户可以访问,默认值为false

3. 使用新脚本启动 broker

启动zookeeper
kafka-server-start-sasl.sh config/server.properties

console-producer 脚本

1. 创建 kafka-prod-jaas.conf 认证文件

KafkaClient {
    org.apache.kafka.common.security.plain.PlainLoginModele required
    username="producer"
    password="ur password"
};

2. cp 一份脚本,修改最后一行

exec $(dirname $0)/kafka-run-class.sh -Djava.security.auth.login.config=$KAFKA_HOME/config/kafka_prod_jaas.conf kafka.tools.ConsoleProducer "$@"

3. 使用 ACL 配置 producer 写入授权

kafka-acls.sh --authorizer Kafka.security.auth.SimpleAclAuthorizer --authorizer-properties zookeeper.connect=localhost:2181 --add --allow-principal User:producer --operation Write --topic *

4. 使用修改后的 console-producer 脚本发送消息

kafka-console-producer-sasl.sh --broker-list localhost:9092 --topic test --producer-property security.protocol=SASL_PLAINTEXT --producer-property sasl.mechanism=PLAIN

 

console-cosnumer 脚本

1. 创建 kafka-cons-jaas.conf 认证文件

KafkaClient {
    org.apache.kafka.common.security.plain.PlainLoginModele required
    username="consumer"
    password="ur password"
};

2. cp 一份脚本,修改最后一行

exec $(dirname $0)/kafka-run-class.sh -Djava.security.auth.login.config=$KAFKA_HOME/config/kafka_cons_jaas.conf kafka.tools.ConsoleConsumer "$@"

3. 创建 consumer.config 文件或修改 /config/consumer.properties 文件

security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN
#group.id=test-group
#group可以指定,也可以不指定。
#一个问题:指定group后--from-beginning不生效,consumer会从记录的offset处继续消费

4. 使用 ACL 配置 consumer 读取授权

kafka-acls.sh --authorizer Kafka.security.auth.SimpleAclAuthorizer --authorizer-properties zookeeper.connect=localhost:2181 --add --allow-principal User:consumer --operation Read --topic * --group *

5. 使用修改后的 console-consumer 脚本接收消息

kafka-console-consumer-sasl.sh --bootstrap-server localhost:9092 --topic test --from-beginning --consumer.config consumer.properties

consumer-groups 脚本

1. 创建 admin_jaas.conf 认证文件

KafkaClient {
	org.apache.kafka.common.security.plain.PlainLoginModule required
	username="admin"
	password="ur password";
};

2. cp 一份脚本,修改最后一行

exec $(dirname $0)/kafka-run-class.sh -Djava.security.auth.login.config=$KAFKA_HOME/config/admin_jaas.conf kafka.admin.ConsumerGroupCommand "$@"

3. 创建 admin_sasl.config 文件

security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN

4. 使用修改后的 kafka-consumer-groups-sasl.sh 脚本 

kafka-consumer-groups-sasl.sh --bootstrap-server localhost:9092 --group test-group --describe --command-config $KAFAK_HOME/config/admin_sasl.config 

总结

SASL+ACL 是认证+授权的过程,除超级用户外的用户在认证后还应授予相应的权限

2. kafka-manager

在 Kafka 配置 SASL 后,需要对 kafka-manager 增加相应配置,监控 offset 等指标

无 SASL zookeeper ,在勾选 poll consumer info 后注意以下三个选项对应 broker 的配置即可

 

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐