使用Spring Boot开发Kafka的生产者和消费者,并理解Kafka Consumer Rebalance
2019-07-13
前面我们在k8s上部署了一个kafka集群,同时也部署了kafka-manager对kafka集群进行监控管理。 本篇将先基于spring boot框架编写一个简单的kafka的生产者和消费者的程序,并在此基础上理解kafka的相关组件。
1.使用Spring Boot开发Kafka的Producer和Consumer #
从https://start.spring.io/创建一个名称为kafka-demo
的spring boot工程,这里基于的是Spring Boot 2.1.6,依赖中选择添加Spring for Apache Kafka
。项目创建完毕后,首先需要在spring boot的配置文件application.yml
通过配置spring.kafka.bootstrap-servers
指定kafka代理地址。
接下来在Spring boot配置文件application.yml
通过配置spring.kafka.bootstrap-servers
指定访问kafa在k8s中Service的地址:
1spring:
2 kafka:
3 bootstrap-servers: kafka.kafka.svc.cluster.local:9092
4 consumer.group-id: myGroup
上面的配置指定了bootstrap-servers
为kafka.kafka.svc.cluster.local:9092
,这就要求如果是本地调试的话需要本地开发网络和k8s集群内部网络互通,否则只能将Spring Boot程序构建成docker镜像并部署到k8s集群内才可进行测试。
上面的配置同时还配置了Consumer的group-id
为myGroup
。
Spring Boot已经对Kafka的支持做了开箱即用,从生成的项目中可以可以看到引入的依赖如下:
1dependencies {
2 implementation 'org.springframework.boot:spring-boot-starter'
3 implementation 'org.springframework.kafka:spring-kafka'
4 testImplementation 'org.springframework.boot:spring-boot-starter-test'
5 testImplementation 'org.springframework.kafka:spring-kafka-test'
6}
使用kafka-manager
在Kafka上创建一个名称为testTopic的Topic,分区数(Partitions)为3,副本数(Replication Factor)为3。
简单起见我们直接使用创建项目时生成的KafkademoApplicationTests
作为Producer,加入Producer代码:
1package com.example.kafkademo;
2
3import org.junit.Test;
4import org.junit.runner.RunWith;
5import org.springframework.beans.factory.annotation.Autowired;
6import org.springframework.boot.test.context.SpringBootTest;
7import org.springframework.kafka.core.KafkaTemplate;
8import org.springframework.test.context.junit4.SpringRunner;
9
10@RunWith(SpringRunner.class)
11@SpringBootTest
12public class KafkademoApplicationTests {
13
14 @Autowired
15 private KafkaTemplate kafkaTemplate;
16
17 @Test
18 public void producer() {
19 kafkaTemplate.send("testTopic", "msgValue");
20 }
21
22}
运行上面的单元测试,如果前面配置没有问题的话,就可以向testTopic中发送了一条消息。KafkaTemplate
是Spring Boot自动配置的,直接使用即可。
简单起见,在KafkademoApplication
中添加Consumer代码:
1package com.example.kafkademo;
2
3import org.springframework.boot.SpringApplication;
4import org.springframework.boot.autoconfigure.SpringBootApplication;
5import org.springframework.kafka.annotation.KafkaListener;
6
7@SpringBootApplication
8public class KafkademoApplication {
9
10 public static void main(String[] args) {
11 SpringApplication.run(KafkademoApplication.class, args);
12 }
13
14
15 @KafkaListener(topics = "testTopic")
16 public void processMessage(String content) {
17 System.out.println("Recieved msg :" + content);
18 }
19
20}
消费者程序KafkademoApplication
启动后,会立即消费之前生产者投递的消息,并打印Recieved msg : msgValue
。
2.理解Kafka集群的组成 #
前面我们在Kubernetes上部署了一个3节点的Kafka集群和监控和管理工具kafka-manager,并使用Spring Boot编写了简单的生产者和消费者程序。 下面一起来理解一下目前出现的一些与kafka相关的组件:
2.1 Broker #
Broker: Broker是kafa的服务端进程。一个kafka的服务端由多个Broker组成。前面使用helm部署的kafka集群,Broker以Statefulset的形式运行:
1kubectl get pod -n kafka -l app=kafka
2NAME READY STATUS RESTARTS
3kafka-0 1/1 Running 0
4kafka-1 1/1 Running 0
5kafka-2 1/1 Running 0
即一个Kafka集群由多个Broker组成,多个Broker会被部署到不同的机器上(这里通过k8s StatefulSet实现)以实现高可用。Broker作为Kafka的服务端处理客户端发送的请求,同时对消息进行持久化。
2.2 Topic #
Topic是发布订阅的主题,可以针对具体业务创建一个或多个Topic。 Topic相对于Kafka集群可以理解为一个”逻辑整体“,Topic会被分区(Partition),即数据会被分成多份,不同的分区可分布在不同的Broker上,每个分区(Partition)还可被创建副本(Replication)。
例如前面我们使用kafka-manager
Kafka上创建一个名称为testTopic的Topic,分区数(Partitions)为3,副本数(Replication Factor)为3。
2.3 客户端 - Producer #
Producer是向Topic发送消息的客户端程序。前面例子中我们使用KafkademoApplicationTests
作为生成者,向testTopic
发送了值为msgValue
的消息:kafkaTemplate.send("testTopic", "msgValue");
。
Producer向Topic发送的消息只会被发送到Topic的一个分区中,而每个分区即成为一组有序的消息,所以分区里需要有一个编号,从0开始,被成为分区位移。
2.4 客户端 - 生产者 #
Consumer是订阅Topic,并消费消息的客户端程序。前面例子中的Producer程序如下:
1@KafkaListener(topics = "testTopic")
2public void processMessage(String content) {
3 System.out.println("Recieved msg :" + content);
4}
2.5 Consumer Group和Consumer Rebalance #
在Kafka中多个Consumer可以组成一个组来消费多个主题。这些主题中的每个分区只会被Consumer Group内的一个Consumer实例消费。 但是一个Consumer可以从多个分区中消费消息。
前面例子中我们配置了consumer.group-id
为myGroup
,所以每启动一个kafka-demo
这个spring boot应用的实例都将作为一个Consumer实例被加入到myGroup
这个Consumer Group中。
前面我们在启动kafka-demo
的时候,Spring Boot的日志中会打印partitions assigned: [testTopic-0, testTopic-1, testTopic-2]
,可以看出只启动一个Consumer实例的时候,testTopic
的3个分区都被分配给了这个Consumer实例。
下面来做个试验:
- 启动第一个
kafka-demo
实例,testTopic
的分区都被分配给了这个实例,partitions assigned: [testTopic-0, testTopic-1, testTopic-2]
。 - 继续启动第二个
kafka-demo
实例,此时testTopic
的3个分区会被2个Consumer实例重新分配,第二个实例被分配了0和1两个分区,partitions assigned: [testTopic-0, testTopic-1]
,前面启动的第一个实例被分配了2这个分区partitions assigned: [testTopic-2]
- 继续启动第三个
kafka-demo
实例,此时testTopic
的3个分区被3个Consumer实例重新分配,每个Consumer实例个分配到一个分区。
这个就是Kafka Consumer的Rebalance即如果消费者组中有新的消费者加入时,之前组内消费者负责的分区会重新平衡,因此假如一个消费者挂掉后,Kafka可以把这个消费者之前负责的分区转移给消费者组内其他限制的消费者。Consumer的Rebalance即使一个Consumer Group下所有的Consumer针对如何订阅分配一个Topic下的所有分区达成共识的过程,Rebalance在coordinator的协助下完成,在Rebalance过程中Consumer Group下所有的Consumer将停止消费消息,因此如果频繁进行Rebalance将会对Consumer消费消息的吞吐量影响较大。 需要注意在以下情况下会发生Consumer Rebalance:Consumer Group中的Consumer数量发生变化;Consumer Group订阅的Topic数量或某个Topic的分区数发生变化。