我又回看了这个问题,调整
socket.request.max.bytes
是没错的,同时也要调大jvm(因为接收数据量变大了,jvm也必须调大,否则会oom):
kafka启动脚本kafka-server-start.sh中指定了kafka启动时需要的最小内存,默认为1G
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
修改脚本 kafka-server-start.sh
中的启动内存。
最后,我依然是觉得参数没有生效,kafka必须依次重启才能生效。
这个问题你解了吗?我们也遇到了
524288 看起来是源码硬编码限制的 kafka 源码 SaslServerAuthenticator.java 这个文件可以看见
public class SaslServerAuthenticator implements Authenticator {
// GSSAPI limits requests to 64K, but we allow a bit extra for custom SASL mechanisms
static final int MAX_RECEIVE_SIZE = 524288;
private static final Logger LOG = LoggerFactory.getLogger(SaslServerAuthenticator.class);