这里有个误区在pipelines.yml中写conf.d/*,实测会有问题,不同的filter处理逻辑会复用。

现在有两个从kafka采集日志的配置文件:from_kafka1.conf,from_kafka2.conf

修改pipelines.yml配置文件

config/pipelines.yml
 - pipeline.id: all.log
   queue.type: persisted
   path.config: "/opt/logstash-7.17.0/conf/*.conf"

启动各种异常报错。
正确写法:

config/pipelines.yml
 - pipeline.id: one.log
   queue.type: persisted
   path.config: "/opt/logstash-7.17.0/conf/from_kafka1.conf"
   pipeline.batch.size: 500
   pipeline.batch.delay: 30
- pipeline.id: two.log
   queue.type: persisted
   path.config: "/opt/logstash-7.17.0/conf/from_kafka2.conf"
   pipeline.batch.size: 2000
   pipeline.batch.delay: 50

同时也可以根据pipeline.id设置不同的调优参数。
使用bin/logstash启动即可。

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐