You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by me <me...@lishiyu.cn> on 2020/09/27 09:22:00 UTC

当kafka有大量数据积压并且flink冷启动,flink端读取kafka有没有限流的参数?

当kafka有大量数据积压并且flink冷启动,flink端读取kafka有没有限流的参数?
kafka积压了2亿数据,flink启动后接着之前的状态读取,怎么控制flink的限流?

Re:当kafka有大量数据积压并且flink冷启动,flink端读取kafka有没有限流的参数?

Posted by hailongwang <18...@163.com>.


如果使用 代码编写的话,可以调用 FlinkKafkaConsumer010#setRateLimiter,其中可以使用 GuavaFlinkConnectorRateLimiter 类。
目前也有一个相关的issue:https://issues.apache.org/jira/browse/FLINK-17919
祝好
Hailong Wang
在 2020-09-27 16:22:00,"me" <me...@lishiyu.cn> 写道:
>当kafka有大量数据积压并且flink冷启动,flink端读取kafka有没有限流的参数?
>kafka积压了2亿数据,flink启动后接着之前的状态读取,怎么控制flink的限流?