1)需求:测试同一个消费者组中的消费者,同一时刻只能有一个消费者消费。
2)案例实操
(1)在 backupo01、backupo02 上修改/usr/local/hadoop/kafka/kafka_2.12-2.4.1/config/consumer.properties 配置
文件中的 group.id 属性为任意组名。
[root@backup01 config]$ vim consumer.properties group.id=yuwenlong
(2)在 backup01、backup02 上分别启动消费者
[root@backup01 kafka_2.12-2.4.1]$ bin/kafka-console-consumer.sh --bootstrap-server backup01:9092 --topic bigdata --consumer.config config/consumer.properties [root@backup02 kafka_2.12-2.4.1]# bin/kafka-console-consumer.sh --bootstrap-server backup01:9092 --topic bigdata --consumer.config config/consumer.properties
查看下消费者组(已经有一个消费者组yuwenlong)
(3)在 backup03 上启动生产者
[root@backup03 kafka_2.12-2.4.1]$ bin/kafka-console-producer.sh --broker-list backup03:9092 --topic bigdata
这里我直接在backup01启动生产者,发送了两条数据 (启动backup03也是一样的)
其中一个消费者(消费了hello):
另一个消费者(消费了atguigu)
(4)查看 backup01 和 backup02 的接收者。 (上面已经查看过了)
证实: 同一时刻只有一个消费者接收到消息。
下面这里启动backup03生成者
消费了hello world
消费了yuwenlong how are you
再次证明了 同一时刻只有一个消费者接收到消息