这家伙太懒,什么都没留下
解决了嘛?
kafka的消息是无状态的,不管你消费和不消费的,到时间了就会清理的。
清理的日志是 消费者 消费数据后的日志记录么?
1个分区消费2个是kafka正常逻辑,并且不会随便改变(长连接)。
你在启动一个消费者,这样8对8,是不是就解决了你的问题。
我的情况差不多,八个分区数,七个新消费者去监听,然而分区数0和1被一个消费者监听,导致这台机子数据量剧增,数据一直堆积,根本消费不动