公司前期的数据在Loghub上,现在因业务扩展需要将数据导到kafka上


具体的流程:



也可以用Kafkabolt向kafka特定的topic写数据,但是要注意需要用阿里云上loghub的storm消费loghub的例子,

例子里面会有一个sampleBolt,这个bolt不能省略,这是因为在loghub-spout中,项目人员封装了tuple,所以

必须要按项目的方式去获取tuple,然后通过一层kafkabolt向kafka写数据。




Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐