Python之kafka消息队列操作入门

1 kafka简介

1.1 什么是kafka

kafka是一个分布式、高吞吐量、高扩展性的消息队列系统。kafka最初是由Linkedin公司开发的,后来在2010年贡献给了Apache基金会,成为了一个开源项目。主要应用在日志收集系统和消息系统,相信大家之前也听说过其他的消息队列中间件,比如RabbitMQ、AcitveMQ,其实kafka就是这么一个东西,也可以叫做KafkaMQ。总之,Kafka比其他消息队列要好一点,优点也比较多,稳定性和效率都比较高,大家都说好,那就是真的好。

1.2 Kafka中的相关概念

在理解Kafka的相关概念之前,我们先来看一张图,这张图基本上包括了Kafka所有的概念,对于我们理解Kafka十分有帮助。

上图中包含了2个Producer(生产者),一个Topic(主题),3个Partition(分区),3个Replica(副本),3个Broker(Kafka实例或节点),一个Consumer Group(消费者组),其中包含3个Consumer(消费者)。下面我们逐一介绍这些概念。

1.2.1 Producer(生产者)

生产者,顾名思义,就是生产东西的,也就是发送消息的,生产者每发送一个条消息必须有一个Topic(主题),也可以说是消息的类别,生产者源源不断的向kafka服务器发送消息。

1.2.2 Topic(主题)

每一个发送到Kafka的消息都有一个主题,也可叫做一个类别,类似我们传统数据库中的表名一样,比如说发送一个主题为order的消息,那么这个order下边就会有多条关于订单的消息,只不过kafka称之为主题,都是一样的道理。

1.2.3 Partition(分区)

生产者发送的消息数据Topic会被存储在分区中,这个分区的概念和ElasticSearch中分片的概念是一致的,都是想把数据分成多个块,好达到我们的负载均衡,合理的把消息分布在不同的分区上,分区是被分在不同的Broker上也就是服务器上,这样我们大量的消息就实现了负载均衡。每个Topic可以指定多个分区,但是至少指定一个分区。每个分区存储的数据都是有序的,不同分区间的数据不保证有序性。因为如果有了多个分区,消费数据的时候肯定是各个分区独立开始的,有的消费得慢,有的消费得快肯定就不能保证顺序了。那么当需要保证消息的顺序消费时,我们可以设置为一个分区,只要一个分区的时候就只能消费这个一个分区,那自然就保证有序了。

1.2.4 Replica(副本)

副本就是分区中数据的备份,是Kafka为了防止数据丢失或者服务器宕机采取的保护数据完整性的措施,一般的数据存储软件都应该会有这个功能。假如我们有3个分区,由于不同分区中存放的是部分数据,所以为了全部数据的完整性,我们就必须备份所有分区。这时候我们的一份副本就包括3个分区,每个分区中有一个副本,两份副本就包含6个分区,一个分区两份副本。Kafka做了副本之后同样的会把副本分区放到不同的服务器上,保证负载均衡。讲到这我们就可以看见,这根本就是传统数据库中的主从复制的功能,没错,Kafka会找一个分区作为主分区(leader)来控制消息的读写,其他的(副本)都是从分区(follower),这样的话读写可以通过leader来控制,然后同步到副本上去,保证的数据的完整性。如果有某些服务器宕机,我们可以通过副本恢复数据,也可以暂时用副本中的数据来使用。

1.2.5 Broker(实例或节点)

这个就好说了,意思就是Kafka的实例,启动一个Kafka就是一个Broker,多个Brokder构成一个Kafka集群,这就是分布式的体现,服务器多了自然吞吐率效率啥的都上来了。

1.2.6 Consumer Group(消费者组)和 Consumer(消费者)

Consume消费者来读取Kafka中的消息,可以消费任何Topic的数据,多个Consume组成一个消费者组,一般的一个消费者必须有一个组(Group)名,如果没有的话会被分一个默认的组名。

1.3 Kafka的架构与设计

一般的来说,一个Kafka集群包含一个或多个的Producer,一个或多个的Broker,一个或多个的Consumer Group,和一个Zookeeper集群。Kafka通过Zookeeper管理集群配置,管理集群在运行过程中负责均衡、故障转移和恢复什么的。Producer使用Push(推送)的方式将消息发布到Broker,Consumer使用Pull(拉取)的方式从Broker获取消息,两者都是主动操作的。

1.3.1 Topic和Partition

Kafka最初设计初衷就是高吞吐率、速度快。所以在对Topic和Partition的设计中,把Topic分成一个或者多个分区,每个Partition在物理磁盘上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文件。当我们创建一个Topic时,同时可以指定分区数据,数目越多,吞吐量越大,但是消耗的资源也越多,当我们向Kafka发送消息时,会均衡的将消息分散存储在不同的分区中。在存储的过程中,每条消息都是被顺序写到磁盘上的。(顺序写磁盘的时候比随机写内存的效率还高,这也是Kafka快的一个原因之一)。

下面是Kafka的写入原理图,可以看出下列消息都是顺序的,消费者消费的时候也是按着顺序来消费的。

对于传统的MQ而言,一般经过消费后的消息都会被删除,而Kafka却不会被删除,始终保留着所有的消息,只记录一个消费者消费消息的offset(偏移量)作为标记,可以允许消费者可以自己设置这个offset,从而可以重复消费一些消息。但不删除肯定不行,日积月累,消息势必会越来越多,占用空间也越来越大。Kafka提供了两种策略来删除消息:一是基于时间,二是基于Partition文件的大小,可以通过配置来决定用那种方式。不过现在磁盘那么廉价,空间也很大,隔个一年半载删除一次也不为过。

1.3.2 Producer

生产者发送消息时,会根据Partition的策略来决定存到那个Partition中,一般的默认的策略是Kafka提供的均衡分布的策略,即实现了我们所要的负载均衡。一般的,当我们的消息对顺序没有要求的话那就多设置几个分区,这样就能很好地负载均衡增加吞吐量了。分区的个数可以手动配置,也可以在创建Topic的时候就事先指定。发送消息的时候,需要指定消息的key值,Producer会根据这个key值和Partition的数量来决定这个消息发到哪个分区,可能里边就是一个hash算法。

1.3.3 Consumer Group 和 Consumer

我们知道传统的消息队列有两种传播消息的方式,一种是单播,类似队列的方式,一个消息只被消费一次,消费过了,其他消费者就不能消费了;另一种是多播,类似发布-订阅的模式,一个消息可以被多个消费者同时消费。Kafka通过消费者组的方式来实现这两种方式,在一个Consumer Group中,每一个Topic中的消息只能被这个组中的一个Consumer消费,所以对于设置了多分区的Topic来说,分区的个数和消费者的个数应该是一样的,一个消费者消费一个分区,这样每个消费者就成了单播形式,类似队列的消费形式。所以说,一个消费者组里边的消费者不能多于Topic的分区数,一旦多于,多出来的消费者就不能消费到消息。另外,不同的消费者组可以同时消费一个消息,这样就实现了多播,类似发布-订阅的模式。我们可以设置每个组中一个消费者的方式来实现发布-订阅的模式。当我们有多个程序都要对消息进行处理时,我们就可以把他们设置到不同的消费者组中,来实现不同的功能。

2 kafka服务

2.1 安装配置

下载地址中找到编译好的版本(不要下载源码),可以直接使用

下载后解压并进入目录

tar -zxvf kafka_2.11-2.3.0.tgz
cd kafka_2.11-2.3.0/

在kafka解压目录下下有一个config的文件夹,里面放置的是我们的配置文件

  • consumer.properites 消费者配置,这个配置文件用于配置消费者,此处我们使用默认的即可
  • producer.properties 生产者配置,这个配置文件用于配置生产者,此处我们使用默认的即可
  • server.properties kafka服务器的配置,此配置文件用来配置kafka服务器,目前仅介绍几个最基础的配置
  • broker.id 申明当前kafka服务器在集群中的唯一ID,需配置为integer,并且集群中的每一个kafka服务器的id都应是唯一的,我们这里采用默认配置即可
  • listeners 申明此kafka服务器需要监听的端口号,如果是在本机上跑虚拟机运行可以不用配置本项,默认会使用localhost的地址,如果是在远程服务器上运行则必须配置,例如:listeners=PLAINTEXT://192.168.180.128:9092。并确保服务器的9092端口能够访问
  • zookeeper.connect 申明kafka所连接的zookeeper的地址 ,需配置为zookeeper的地址,由于本次使用的是kafka高版本中自带zookeeper,使用默认配置即可,zookeeper.connect=localhost:2181

 2.2 启动服务

cd进入kafka解压目录,输入

bin/zookeeper-server-start.sh config/zookeeper.properties
bin/kafka-server-start.sh config/server.properties

我在运行时报错如下

bin/kafka-run-class.sh: line 299: exec: java: not found

是因为机器上没有安装java,安装方法如下

sudo apt install default-jre

如果想要后台运行,则运行以下语句

nohup bin/zookeeper-server-start.sh config/zookeeper.properties &
nohup bin/kafka-server-start.sh config/server.properties &

3 简单使用

3.1 安装方法

pip install kafka-python

3.2 消费端

from kafka import KafkaConsumer

consumer = KafkaConsumer('my_topic', 
                        group_id='group2', 
                        bootstrap_servers=['localhost:9092'])
for msg in consumer:
    print(msg)
  • 第1个参数为 topic的名称
  • group_id : 指定此消费者实例属于的组名,可以不指定
  • bootstrap_servers : 指定kafka服务器

3.3 生产端

from kafka import KafkaProducer

producer = KafkaProducer(bootstrap_servers=['localhost:9092'])
future = producer.send('my_topic', 
                        key= b'my_key', 
                        value= b'my_value', 
                        partition= 0)
result = future.get(timeout=10)
print(result)

producer.send函数为发送消息

  • 第1个参数为 topic名称,必须指定
  • key : 键,必须是字节字符串,可以不指定(但key和value必须指定1个),默认为None
  • value : 值,必须是字节字符串,可以不指定(但key和value必须指定1个),默认为None
  • partition : 指定发送的partition,由于kafka默认配置1个partition,固为0

future.get函数等待单条消息发送完成或超时,经测试,必须有这个函数,不然发送不出去,或用time.sleep代替

3.4 消息解析

运行上述两个脚本,消费端接收到的消息如下

ConsumerRecord(topic='my_topic', partition=0, offset=5, timestamp=1570679336596, timestamp_type=0, key=b'my_key', value=b'my_value', headers=[], checksum=None, serialized_key_size=6, serialized_value_size=8, serialized_header_size=-1)
  • topic:话题名称
  • partition:分区名称
  • offset : 这条消息的偏移量
  • timestamp : 时间戳
  • timestamp_type : 时间戳类型
  • key : key值,字节类型
  • value : value值,字节类型
  • checksum : 消息的校验和
  • serialized_key_size : 序列化key的大小
  • serialized_value_size : 序列化value的大小,可以看到value=None时,大小为-1

4 高级使用

在实际使用的时候,我们不会只是简单的发送接收一个字节字符串数据,而是将消息打包成其它格式,如json、msgpack等格式,有时候还希望调用回调函数来完成其它功能,这时候可以参考官网如下的写法来实现

4.1 生产端

from kafka import KafkaProducer
from kafka.errors import KafkaError

producer = KafkaProducer(bootstrap_servers=['broker1:1234'])

# 默认为异步
future = producer.send('my-topic', b'raw_bytes')

# 异步发送模块
try:
    record_metadata = future.get(timeout=10)
except KafkaError:
    # Decide what to do if produce request failed...
    log.exception()
    pass

# 发送成功后返回分配的分区和偏移量
print (record_metadata.topic)
print (record_metadata.partition)
print (record_metadata.offset)

# 产生秘钥消息来启用哈希分区
producer.send('my-topic', key=b'foo', value=b'bar')

# 通过msgpack的格式来编码消息
producer = KafkaProducer(value_serializer=msgpack.dumps)
producer.send('msgpack-topic', {'key': 'value'})

# 通过json的格式来编码消息
producer = KafkaProducer(value_serializer=lambda m: json.dumps(m).encode('ascii'))
producer.send('json-topic', {'key': 'value'})

# 异步发送
for _ in range(100):
    producer.send('my-topic', b'msg')

# 发送成功的回调函数
def on_send_success(record_metadata):
    print(record_metadata.topic)
    print(record_metadata.partition)
    print(record_metadata.offset)

# 发送失败的回调函数
def on_send_error(excp):
    log.error('I am an errback', exc_info=excp)
    # handle exception

# 带有回调函数的异步发送
producer.send('my-topic', b'raw_bytes').add_callback(on_send_success).add_errback(on_send_error)

# 阻塞,直到发送完所有消息
producer.flush()

# 配置重复尝试的次数
producer = KafkaProducer(retries=5)

4.2 消费端

from kafka import KafkaConsumer

# 获取最新的消息,并且自动提交偏移量
consumer = KafkaConsumer('my-topic',
                         group_id='my-group',
                         bootstrap_servers=['localhost:9092'])
for message in consumer:
    # 消息默认是原始字节,必要时需要解码操作
    # 例如对于unicode: `message.value.decode('utf-8')`
    print ("%s:%d:%d: key=%s value=%s" % (message.topic, message.partition,
                                          message.offset, message.key,
                                          message.value))

# 获取最早的可用消息,不提交偏移量
KafkaConsumer(auto_offset_reset='earliest', enable_auto_commit=False)

# 获取json格式的数据
KafkaConsumer(value_deserializer=lambda m: json.loads(m.decode('ascii')))

# 获取msgpack格式的数据
KafkaConsumer(value_deserializer=msgpack.unpackb)

# 1s后没有消息则停止迭代
KafkaConsumer(consumer_timeout_ms=1000)

# 订阅正则表达式的一类主题
consumer = KafkaConsumer()
consumer.subscribe(pattern='^awesome.*')

# 在不同的服务器/进程/CPU上可同时使用多个消费者
consumer1 = KafkaConsumer('my-topic',
                          group_id='my-group',
                          bootstrap_servers='my.server.com')
consumer2 = KafkaConsumer('my-topic',
                          group_id='my-group',
                          bootstrap_servers='my.server.com')

在使用过程中,可根据自己的情形具体搭配,更详细的操作可参考kafka API

相关推荐
©️2020 CSDN 皮肤主题: 游动-白 设计师:白松林 返回首页