notLeaderForPartitionException是说没有找到该分区的leader。0.9+的kafka版本,offset默认存储__consumer_offsets,你可以通过命令检查下集群节点是否正常。
不好意思,刚才忘说了,我用的版本是0.8.2的.我看官网上写的0.8.2的也会用到__consumer_offsets.然后我用kafka-preferred-replica-election.sh --zookeeper localhost:2181重新分布了下.在重新之前查了下,leader和isr都是不均匀的.重新分布后,查了下,还是不均匀.并且notleaderforpartitionexception还在报.
查看状态时,有这样的情况: Replicas: 1,5,2 Isr: 5,2, ISR与备份不致.执行kafka-preferred-replica-election.sh这个命令后,还不一致.
重启下集群试试
因为数据量很大,有没有可能是num.replica.fetchers开的太小了.导致follower从ISR中频繁被移除.
找不到想要的答案?提一个您自己的问题。
0 声望
这家伙太懒,什么都没留下
notLeaderForPartitionException是说没有找到该分区的leader。
0.9+的kafka版本,offset默认存储__consumer_offsets,你可以通过命令检查下集群节点是否正常。
不好意思,刚才忘说了,我用的版本是0.8.2的.
我看官网上写的0.8.2的也会用到__consumer_offsets.
然后我用kafka-preferred-replica-election.sh --zookeeper localhost:2181重新分布了下.
在重新之前查了下,leader和isr都是不均匀的.重新分布后,查了下,还是不均匀.并且notleaderforpartitionexception还在报.
查看状态时,有这样的情况: Replicas: 1,5,2 Isr: 5,2, ISR与备份不致.
执行kafka-preferred-replica-election.sh这个命令后,还不一致.
重启下集群试试
因为数据量很大,有没有可能是num.replica.fetchers开的太小了.导致follower从ISR中频繁被移除.
你的答案