./kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list 192.168.10.145:9092 --topic MpMallTest-dev
MpMallTest-dev:0:335
MpMallTest-dev:1:73
MpMallTest-dev:2:35
./kafka-topics.sh --zookeeper localhost:2181 --describe --topic MpMallTest-dev
Topic:MpMallTest-dev PartitionCount:3 ReplicationFactor:3 Configs:
Topic: MpMallTest-dev Partition: 0 Leader: 2 Replicas: 1,2,3 Isr: 2,3,1
Topic: MpMallTest-dev Partition: 1 Leader: 3 Replicas: 1,2,3 Isr: 3,2,1
Topic: MpMallTest-dev Partition: 2 Leader: 1 Replicas: 1,2,3 Isr: 1,2,3
我们这开发一直都是往0分区写内容,原先ReplicationFactor
也是1,我修改了下ReplicationFactor,但是分区数据数量没有因此同步,有什么操作可以修复? 我使用了./kafka-preferred-replica-election.sh
命令没有产生作用
./kafka-topics.sh --zookeeper localhost:2181 --describe --topic MpMallTest-dev Topic:MpMallTest-dev PartitionCount:3 ReplicationFactor:3 Configs: Topic: MpMallTest-dev Partition: 0 Leader: 1 Replicas: 1,2,3 Isr: 2,3,1 Topic: MpMallTest-dev Partition: 1 Leader: 1 Replicas: 1,2,3 Isr: 3,2,1 Topic: MpMallTest-dev Partition: 2 Leader: 1 Replicas: 1,2,3 Isr: 1,2,3 ./kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list 192.168.10.145:9092 --topic MpMallTest-dev MpMallTest-dev:0:335 MpMallTest-dev:1:73 MpMallTest-dev:2:35
另外一个问题,分区1的数据不是最多的,为什么每个分区的Leader都变成
broker 1
了?你的答案