今天面试总结,关于kafka 保证消息不丢失问题

Posted hansc-blog

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了今天面试总结,关于kafka 保证消息不丢失问题相关的知识,希望对你有一定的参考价值。

kafka 保证消息不丢失。原因如下有:

1)生产者如果异步发送,会造成消息丢失,发送的过程中kafka会先把消息缓存起来。然后批量发送。 若批量发送之前client宕机会造成消息丢失。生产者不丢失消息需要同步发送

2)kafka服务器默认异步刷盘,先刷到系统页缓存,然后再刷新到日志文件。页缓存的数据可能会丢失。解决可以同步的方式刷盘,但是这样效率很低,比rabbitmq低。

 对于我说的第二点有点问题。在配置ack=all , lsr=2 是 ,可以保证页缓存数据不丢失。

结论:如果想要确保消息不丢失,需要kafka producer配置成同步方式。选用rabbitmq。

 

以上是关于今天面试总结,关于kafka 保证消息不丢失问题的主要内容,如果未能解决你的问题,请参考以下文章

kafka如何保证消息不丢失?半分钟的答案和半个小时的答案有点不一样。

回答面试官:如何保证消息不丢失

Kafka常见问题总结

Kafka面试连环炮

Kafka如何保证百万级写入速度 并 保证不丢失不重复消费

[转帖]kafka 如何保证数据不丢失