kafka leader -1的问题该怎么解决呢?

三台付服务器IP:192.168.6.71,192.168.6.71,192.168.6.73

操作系统:centos7
kafka版本:kafka_2.11-1.1.0.tgz
zookeeper版本:zookeeper-3.4.10.tar.gz

kafka三台都启动的topic状态:

[root@master ~]#  /usr/local/kafka/bin/kafka-topics.sh --zookeeper 192.168.6.71:2181,192.168.6.72:2181,192.168.6.73:2181 --topic access-log --describe
Topic:access-log    PartitionCount:1    ReplicationFactor:1    Configs:
    Topic: access-log    Partition: 0    Leader: 73    Replicas: 73    Isr: 73

我把leader(也就是192.168.6.73)这台服务器的kafka停掉以后:

[root@master ~]#  /usr/local/kafka/bin/kafka-topics.sh --zookeeper 192.168.6.71:2181,192.168.6.72:2181,192.168.6.73:2181 --topic access-log --describe
Topic:access-log    PartitionCount:1    ReplicationFactor:1    Configs:
    Topic: access-log    Partition: 0    Leader: -1    Replicas: 73    Isr: 73

这时候Leader的状态成-1了。这个问题该怎么解决呢?有遇到过同样问题的大神吗?







发表于: 4月前   最后更新时间: 4月前   游览量:1624
上一条: 到头了!
下一条: 已经是最后了!

评论…


  • 没明白你想表达什么。你停掉了,就自然变成-1了。
    • 这个leader只针对本机的副本吗?我在别的机器上查看leader都是73,我就以为如果73挂了,会从71或者72中选择一个当leader,结果不是,我在看看。谢谢大神指点
      • 评论…
        • in this conversation