You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by Dream-底限 <zh...@akulaku.com> on 2020/10/29 03:26:07 UTC

flink1.11 kafka connector

hi、
我看了一下官方提供的kafka sink,对于数据发送方式为两种:对于第二种情况,有办法保证对于指定主键的变化过程发送到同一个kafka
partiiton吗,或者说社区对于原生hash(key)到kafka分区映射的方式有支持计划吗

   - fixed:每个Flink分区最多只能有一个Kafka分区。
   - round-robin:Flink分区循环分配给Kafka分区。

Re: flink1.11 kafka connector

Posted by zhisheng <zh...@gmail.com>.
hi,

应该是可以继承 FlinkKafkaPartitioner 接口,自己重写 partition 方法实现 hash(key) 的功能

eg:

public class MyCustomPartitioner extends FlinkKafkaPartitioner<Map<String,
Object>> {

    @Override
    public int partition(Map<String, Object> map, byte[] key, byte[] value,
String targetTopic, int[] partitions) {
        String key = map.get(xxx).toString();
        return partitions[Math.abs(key.hashCode() % partitions.length)];
    }
}

Best!
zhisheng

Jark Wu <im...@gmail.com> 于2020年10月29日周四 下午2:33写道:

> 多谢创建 issue。
>
> side comment: 1.12 中 kafka connector 将支持声明 message key 部分,当声明了 message key
> 部分,就自动会按照 key 来做 hash 到某个固定分区。
>
> Best,
> Jark
>
> On Thu, 29 Oct 2020 at 14:27, Dream-底限 <zh...@akulaku.com> wrote:
>
> > hi、
> > 好的,https://issues.apache.org/jira/browse/FLINK-19871
> >
> > Jark Wu <im...@gmail.com> 于2020年10月29日周四 下午12:06写道:
> >
> > > 目前还不支持,可以去社区开个 issue,看能不能赶上1.12
> > >
> > > Best,
> > > Jark
> > >
> > >
> > > On Thu, 29 Oct 2020 at 11:26, Dream-底限 <zh...@akulaku.com> wrote:
> > >
> > > > hi、
> > > > 我看了一下官方提供的kafka sink,对于数据发送方式为两种:对于第二种情况,有办法保证对于指定主键的变化过程发送到同一个kafka
> > > > partiiton吗,或者说社区对于原生hash(key)到kafka分区映射的方式有支持计划吗
> > > >
> > > >    - fixed:每个Flink分区最多只能有一个Kafka分区。
> > > >    - round-robin:Flink分区循环分配给Kafka分区。
> > > >
> > >
> >
>

Re: flink1.11 kafka connector

Posted by Jark Wu <im...@gmail.com>.
多谢创建 issue。

side comment: 1.12 中 kafka connector 将支持声明 message key 部分,当声明了 message key
部分,就自动会按照 key 来做 hash 到某个固定分区。

Best,
Jark

On Thu, 29 Oct 2020 at 14:27, Dream-底限 <zh...@akulaku.com> wrote:

> hi、
> 好的,https://issues.apache.org/jira/browse/FLINK-19871
>
> Jark Wu <im...@gmail.com> 于2020年10月29日周四 下午12:06写道:
>
> > 目前还不支持,可以去社区开个 issue,看能不能赶上1.12
> >
> > Best,
> > Jark
> >
> >
> > On Thu, 29 Oct 2020 at 11:26, Dream-底限 <zh...@akulaku.com> wrote:
> >
> > > hi、
> > > 我看了一下官方提供的kafka sink,对于数据发送方式为两种:对于第二种情况,有办法保证对于指定主键的变化过程发送到同一个kafka
> > > partiiton吗,或者说社区对于原生hash(key)到kafka分区映射的方式有支持计划吗
> > >
> > >    - fixed:每个Flink分区最多只能有一个Kafka分区。
> > >    - round-robin:Flink分区循环分配给Kafka分区。
> > >
> >
>

Re: flink1.11 kafka connector

Posted by Dream-底限 <zh...@akulaku.com>.
hi、
好的,https://issues.apache.org/jira/browse/FLINK-19871

Jark Wu <im...@gmail.com> 于2020年10月29日周四 下午12:06写道:

> 目前还不支持,可以去社区开个 issue,看能不能赶上1.12
>
> Best,
> Jark
>
>
> On Thu, 29 Oct 2020 at 11:26, Dream-底限 <zh...@akulaku.com> wrote:
>
> > hi、
> > 我看了一下官方提供的kafka sink,对于数据发送方式为两种:对于第二种情况,有办法保证对于指定主键的变化过程发送到同一个kafka
> > partiiton吗,或者说社区对于原生hash(key)到kafka分区映射的方式有支持计划吗
> >
> >    - fixed:每个Flink分区最多只能有一个Kafka分区。
> >    - round-robin:Flink分区循环分配给Kafka分区。
> >
>

Re: flink1.11 kafka connector

Posted by Jark Wu <im...@gmail.com>.
目前还不支持,可以去社区开个 issue,看能不能赶上1.12

Best,
Jark


On Thu, 29 Oct 2020 at 11:26, Dream-底限 <zh...@akulaku.com> wrote:

> hi、
> 我看了一下官方提供的kafka sink,对于数据发送方式为两种:对于第二种情况,有办法保证对于指定主键的变化过程发送到同一个kafka
> partiiton吗,或者说社区对于原生hash(key)到kafka分区映射的方式有支持计划吗
>
>    - fixed:每个Flink分区最多只能有一个Kafka分区。
>    - round-robin:Flink分区循环分配给Kafka分区。
>