You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 郑 致远 <ze...@hotmail.com> on 2022/11/02 07:39:43 UTC

回复: Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

你好. 但是下一次cp发起之时,   kafka transaction 已经超时失败了,  sink端precommit之前,写入到kafka的数据, 是不是就丢失了?
________________________________
发件人: Xuyang <xy...@163.com>
发送时间: 2022年11月1日 23:08
收件人: user-zh@flink.apache.org <us...@flink.apache.org>
主题: Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

Hi, 应该会等到下一次做cp的时候再提交
在 2022-11-01 17:13:22,"郑 致远" <ze...@hotmail.com> 写道:
>大佬们好.
>flink exactly once 写kafka,如果flink checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
>kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?