kafka日志数据保留时间修改

kafka的数据保留时间和流量峰值,磁盘大小有什么计算关系吗?







发表于: 3月前   最后更新时间: 3月前   游览量:536
上一条: 到头了!
下一条: 已经是最后了!

评论…


  • 首先,抛开业务要求消息保留的时间。
    这个其实很好算的,如果我一天数据量是20G,我磁盘是500G,那默认7天即可,根本不需要调整。
    如果你一天20G,有250G,防止日志突然激增,调整成5天。
    最后,你保守起见,设置保留的总大小,超过了自动覆盖之前的,那么你永远都不怕超。
    • 哦哦,懂了。超级感谢。补充一个问题:根据这个计算方法,我们是在每次出现流量激增的时候,先kill掉kafka进程,然后再重新应用新的保留时间吗?
        • 调整新的保留时间吗?是要重启kafka的。
          不过这种情况太少了,都是提前算好的,而且中间件的机器和磁盘都相对较好和大。
          • 评论…
            • in this conversation