You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 悟空 <wu...@foxmail.com> on 2022/08/09 08:55:47 UTC

flink sql 实现 查询phoenix count 语法

大家好, 我目前在使用的flink 是1.12.3版本,
目前场景是这样的, source table 一共两张, 一张kafka 表&nbsp; source_table_kafka 一张 phoenix表 source_table_phoenix ,我想通过kafka流表 join phoenix 然后count 之后的结果 sink 到kafka表中,其中count 查询 想下探到phoenix 完成 。请问这种可以实现吗?


select stp.number_no, count(*) as stat_number from source_table_kafka stk&nbsp; join source_table_phoenix&nbsp;FOR SYSTEM_TIME AS OF stk.`PROCTIME` as stp on stk.id = stp.id group by stp.number_no




请问 如何实现这种逻辑,想kafka里的消息每来一条 都下沉到phoenix中查询 去做count, 目前我已经实现了 phoenix 相关的connector 支持 SQL 语法

Re:flink sql 实现 查询phoenix count 语法

Posted by Xuyang <xy...@163.com>.
Hi, 现在好像没有count相关的下沉逻辑,目前应该只实现了关于filter、limit、partition、projection等的source下沉。具体可以参考下[1]等等




[1] https://github.com/apache/flink/blob/master/flink-table/flink-table-planner/src/main/java/org/apache/flink/table/planner/plan/abilities/source/FilterPushDownSpec.java













--

    Best!
    Xuyang





在 2022-08-09 16:55:47,"悟空" <wu...@foxmail.com> 写道:
>大家好, 我目前在使用的flink 是1.12.3版本,
>目前场景是这样的, source table 一共两张, 一张kafka 表&nbsp; source_table_kafka 一张 phoenix表 source_table_phoenix ,我想通过kafka流表 join phoenix 然后count 之后的结果 sink 到kafka表中,其中count 查询 想下探到phoenix 完成 。请问这种可以实现吗?
>
>
>select stp.number_no, count(*) as stat_number from source_table_kafka stk&nbsp; join source_table_phoenix&nbsp;FOR SYSTEM_TIME AS OF stk.`PROCTIME` as stp on stk.id = stp.id group by stp.number_no
>
>
>
>
>请问 如何实现这种逻辑,想kafka里的消息每来一条 都下沉到phoenix中查询 去做count, 目前我已经实现了 phoenix 相关的connector 支持 SQL 语法