You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by op <52...@qq.com> on 2020/07/07 09:01:28 UTC
flink sql 读写写kafka表的时候可以指定消息的key吗
hi:
flink sql 写kafka表的时候可以指定消息的key吗?
看官网的kafka connector没有找到消息key相关的说明
如果可以的话,如何指定?
谢谢
Re: flink sql 读写写kafka表的时候可以指定消息的key吗
Posted by Jark Wu <im...@gmail.com>.
Hi,
可以描述下你的业务场景么? 为什么一定要去获取 key 的信息呢,因为按照我的理解,一般来说 key 的信息一般在 value 中也有。
Best,
Jark
On Tue, 7 Jul 2020 at 17:17, op <52...@qq.com> wrote:
> 感谢
>
>
>
>
> ------------------ 原始邮件 ------------------
> 发件人: "Leonard Xu"<xbjtdcq@gmail.com>;
> 发送时间: 2020年7月7日(星期二) 下午5:15
> 收件人: "user-zh"<user-zh@flink.apache.org>;
>
> 主题: Re: flink sql 读写写kafka表的时候可以指定消息的key吗
>
>
>
> Hi,
>
> 目前还不支持的,社区有一个 FLIP-107[1] 在计划做这个事情。
>
> 祝好,
> Leonard Xu
> [1]
> https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell.
> <
> https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell.>
> ;
>
> > 在 2020年7月7日,17:01,op <520075694@qq.com> 写道:
> >
> > hi:
> > &nbsp; flink sql 写kafka表的时候可以指定消息的key吗?
> > 看官网的kafka connector没有找到消息key相关的说明
> > 如果可以的话,如何指定?
> > &nbsp;谢谢
回复: flink sql 读写写kafka表的时候可以指定消息的key吗
Posted by op <52...@qq.com>.
感谢
------------------ 原始邮件 ------------------
发件人: "Leonard Xu"<xbjtdcq@gmail.com>;
发送时间: 2020年7月7日(星期二) 下午5:15
收件人: "user-zh"<user-zh@flink.apache.org>;
主题: Re: flink sql 读写写kafka表的时候可以指定消息的key吗
Hi,
目前还不支持的,社区有一个 FLIP-107[1] 在计划做这个事情。
祝好,
Leonard Xu
[1] https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell. <https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell.>
> 在 2020年7月7日,17:01,op <520075694@qq.com> 写道:
>
> hi:
> &nbsp; flink sql 写kafka表的时候可以指定消息的key吗?
> 看官网的kafka connector没有找到消息key相关的说明
> 如果可以的话,如何指定?
> &nbsp;谢谢
Re: flink sql 读写写kafka表的时候可以指定消息的key吗
Posted by Leonard Xu <xb...@gmail.com>.
Hi,
目前还不支持的,社区有一个 FLIP-107[1] 在计划做这个事情。
祝好,
Leonard Xu
[1] https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell. <https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell.>
> 在 2020年7月7日,17:01,op <52...@qq.com> 写道:
>
> hi:
> flink sql 写kafka表的时候可以指定消息的key吗?
> 看官网的kafka connector没有找到消息key相关的说明
> 如果可以的话,如何指定?
> 谢谢