You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 李航飞 <te...@163.com> on 2022/03/18 10:51:02 UTC

Table Api Connectors kafka bounded

现在有一个需求是,创建一个任务,消费kafka,仅消费一个片段 即设定起始消费点和结束消费位置
我看到DataStream Connectors kafka 中有一个setBounded (setUnbounded)属性 ,可以满足需求。
问题;
我想使用 Table API 完成上面的需求,该怎么办?
Table API 是否有相关属性? 
有其他办法满足这个需求吗?
流处理批处理都行。

Re:Table Api Connectors kafka bounded

Posted by RS <ti...@163.com>.
Hi,
参考官方文档的话,目前应该是不支持的,kafka的connector, source只支持Unbounded Scan, 不支持Bounded Scan



NameVersionSourceSink

Apache Kafka0.10+Unbounded ScanStreaming Sink, Batch Sink


https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/connectors/table/overview/#supported-connectors


需要的话,你得自己实现一个source了,支持配置from/to timestamp/offset


在 2022-03-18 18:51:02,"李航飞" <te...@163.com> 写道:
>现在有一个需求是,创建一个任务,消费kafka,仅消费一个片段 即设定起始消费点和结束消费位置
>我看到DataStream Connectors kafka 中有一个setBounded (setUnbounded)属性 ,可以满足需求。
>问题;
>我想使用 Table API 完成上面的需求,该怎么办?
>Table API 是否有相关属性? 
>有其他办法满足这个需求吗?
>流处理批处理都行。