不算大,消息内容基本就是SQL、请求时间以及封装的JSON格式的数据。 抢购2分钟时间产生超过100万条数据
buffer.memory持续增大,你的消息体积很大吗?
还可以选择 增加linger.time、建立多个kafkaproducer ?
hi,麻烦再请假下:上述的问题根源,看了几天源码,做了测试,大概能够找到问题了。增加了 request.timeout.ms =60000 和 buffer.memory = 96M。 但是在抢购高峰期,依然会出现
Expiring 26 record(s) for camera-15: 60001 ms has passed since batch creation plus linger time。
目前集群
brokers=5
partition=50
针对抢购大概3分钟内出现的超时问题,可以将request.timeout.ms=5分钟吗?
是不是需要更大的buffer.memory ?
有其他办法吗?
你好,方便加下的你微信吗? 有些其他问题,想向你请教下。