前言

最近有个日志需求,因为太过频繁,且还要有通过日志的频率来启动报警机制,于是想到使用kafka来做,下面就主要记录一下pthon怎么使用kafaka,我这边使用的pyKafka,至于什么是kafka,kafka的原理以及自身的形成机制或搭建之类的,请自行百度一番即可,这边只记录代码

先贴下 pykafka的官方API文档地址


正文

1、导入模块

from pykafka import KafkaClient

2、实例化

client = KafkaClient(hosts="host:port")   #实例化
print(client.topics)
print(client.brokers)

ps:一个坑
broker打印出来的host如果是域名形式的(kafka自己设置了只能通过域名连接),实例化KafkaClient时传入的是ip,在没有配置host的情况下,连接会报socket连接错误
出现socket错误时,首先检查是否是这种情况,如果是,在host文件中配置域名和ip的映射可以解决

3、生产者demo

from pykafka import KafkaClient
client = KafkaClient(hosts="ip:port")   #实例化
print(client.topics)
print(client.brokers)
topic = client.topics['test_topic']  #指定topic,没有就新建
producer = topic.get_producer()
for i in range(1):
    producer.produce(('test message ' + str(i ** 2)).encode())
producer.stop()

4、消费者demo

from pykafka import KafkaClient
import time
import json
class KafkaTest(object):
    def __init__(self, host):
        self.host = host
        self.client = KafkaClient(hosts=self.host)

    def balance_consumer(self, topic, offset=0):
        """
        使用balance consumer去消费kafka
        :return:
        """
        result=[]

        topic = self.client.topics[topic.encode()]
        # managed=True 设置后,使用新式reblance分区方法,不需要使用zk,而False是通过zk来实现reblance的需要使用zk,必须指定        # zookeeper_connect = "zookeeperIp",consumer_group='test_group',
        consumer = topic.get_balanced_consumer(consumer_group='test_group',
                                    auto_commit_enable=True,managed=True,
                                            consumer_timeout_ms=1000)
        partitions = topic.partitions
        print("分区 {}".format(partitions))
        earliest_offsets = topic.earliest_available_offsets()
        print("最早可用offset {}".format(earliest_offsets))
        last_offsets = topic.latest_available_offsets()
        print("最近可用offset {}".format(last_offsets))
        offset = consumer.held_offsets
        print("当前消费者分区offset情况{}".format(offset))
        while True:
            msg = consumer.consume()
            if msg:
                offset = consumer.held_offsets
                print("当前位移:{}".format(offset))
                result.append(eval(msg.value.decode()))
                print(msg.value.decode())
                consumer.commit_offsets()   #commit一下
                
            else:
                print("没有数据")

if __name__ == '__main__':
    host = 'ip:port' 
    kafka_ins = KafkaTest(host)
    topic = 'test_topic'
    kafka_ins.balance_consumer(topic)
Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐