这家伙太懒,什么都没留下
advertised.listeners新版本弃用了,用listeners。
默认都认为是处理成功,如果失败,重新丢回kafka中。
不管你做什么判断,后面的程序一旦提交成功,你的offset就变了,并且你offset提交的顺序不规则,你逻辑全乱了。不仅仅是丢消息,重复消费等问题了。
我现在能想到的,就是要么在数据库端去做判断,不提交重复数据。要么就同一个group中,不做多台服务器去处理。请问我这个说法是否正确,或者有其他方式呢?
没办法的,原理如此。
那么这个问题是没办法处理的吗?要么会多消费一条数据,要么会少消费一条数据~~