You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 1193216154 <11...@qq.com> on 2020/02/27 12:49:10 UTC

回复:用FlinkKafkaProducer011写kafka的exactly once的困惑

那这十分钟之内是否sink都接受不到数据呢?



---原始邮件---
发件人: "xin Destiny"<nj18652727118@gmail.com&gt;
发送时间: 2020年2月27日(周四) 晚上6:49
收件人: "user-zh"<user-zh@flink.apache.org&gt;;
主题: Re: 用FlinkKafkaProducer011写kafka的exactly once的困惑


应该是所有operator完成各自的pre-commit,它们会发起一个commit操作,然后才会flush

1193216154 <1193216154@qq.com&gt; 于2020年2月27日周四 下午5:30写道:

&gt; 各位大神好,有个困惑。用FlinkKafkaProducer011写kafka的exactly
&gt; once,比如我的checkpoint是十分钟,是否在十分钟之内,都不会往kafka下游发送数据。因为我看flink源码,是有在执行snapshotState的时候才kakfa的producer才flush了。