You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by Jim Chen <ch...@gmail.com> on 2021/08/27 05:59:22 UTC

如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Hi, All
  我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
  按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
                [] - Retrying connect to server:
wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50, sleepTime=1000
MILLISECONDS)。
  大家在生产中是如何解决这种问题的呢?非常感谢!

Re: 如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Posted by Jim Chen <ch...@gmail.com>.
Hi, Caizhi

你们有实时集群和离线集群分离的场景吗?你们是怎么做的?


Caizhi Weng <ts...@gmail.com> 于2021年8月27日周五 下午2:33写道:

> Hi!
>
> 看起来是 Flink 集群不能访问到 wx12-dsjrt-master001/xx.xx.xx.xx:8050,检查一下网络以及这个端口的状态看看?
>
> Jim Chen <ch...@gmail.com> 于2021年8月27日周五 下午1:59写道:
>
> > Hi, All
> >
> >
> 我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
> >   按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
> > 2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
> >                 [] - Retrying connect to server:
> > wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
> > policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50,
> sleepTime=1000
> > MILLISECONDS)。
> >   大家在生产中是如何解决这种问题的呢?非常感谢!
> >
>

Re: 如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Posted by Jim Chen <ch...@gmail.com>.
你好,

你说的这些问题,不同集群的配置文件和hive版本,我都注意到了。

我们这边2套集群的版本都是一样的,配置文件,我也确认过是两套集群的

我的catalog配置文件如下:

catalogs:  # empty list
    - name: hive_raltime_catalog  #实时集群
      type: hive
      hive-conf-dir: /usr/hdp/3.1.5.0-152/hive/conf/
      default-database: default
      hadoop-conf-dir: /usr/hdp/3.1.5.0-152/hadoop/conf/
    - name: hive_offline_catalog #离线集群
      type: hive
      hive-conf-dir: /home/rtdev/jim/app/flink-1.13.1/offline_conf/hive/
      default-database: default
      hadoop-conf-dir: /home/rtdev/jim/app/flink-1.13.1/offline_conf/hadoop/


Rui Li <li...@gmail.com> 于2021年8月30日周一 上午11:59写道:

> 你好,
>
>
> 这个看起来是Hadoop的报错,连接失败的这个节点是NameNode么?创建HiveCatalog时可以指定Hadoop的配置文件的,要保证两个HiveCatalog读到的Hadoop配置是正确的。
>
> 另外使用多个HiveCatalog需要保证hive版本一致,不同版本的hive没办法一起用
>
> On Fri, Aug 27, 2021 at 3:01 PM Jim Chen <ch...@gmail.com>
> wrote:
>
> > Hi
> >
> > 集群上根本没有这个端口,也不知道这个端口是干嘛用的,为啥要连这个。这个是实时集群上的端口
> >
> > Caizhi Weng <ts...@gmail.com> 于2021年8月27日周五 下午2:33写道:
> >
> > > Hi!
> > >
> > > 看起来是 Flink 集群不能访问到
> > wx12-dsjrt-master001/xx.xx.xx.xx:8050,检查一下网络以及这个端口的状态看看?
> > >
> > > Jim Chen <ch...@gmail.com> 于2021年8月27日周五 下午1:59写道:
> > >
> > > > Hi, All
> > > >
> > > >
> > >
> >
> 我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
> > > >   按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
> > > > 2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
> > > >                 [] - Retrying connect to server:
> > > > wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
> > > > policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50,
> > > sleepTime=1000
> > > > MILLISECONDS)。
> > > >   大家在生产中是如何解决这种问题的呢?非常感谢!
> > > >
> > >
> >
>
>
> --
> Best regards!
> Rui Li
>

Re: 如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Posted by Rui Li <li...@gmail.com>.
你好,

这个看起来是Hadoop的报错,连接失败的这个节点是NameNode么?创建HiveCatalog时可以指定Hadoop的配置文件的,要保证两个HiveCatalog读到的Hadoop配置是正确的。

另外使用多个HiveCatalog需要保证hive版本一致,不同版本的hive没办法一起用

On Fri, Aug 27, 2021 at 3:01 PM Jim Chen <ch...@gmail.com>
wrote:

> Hi
>
> 集群上根本没有这个端口,也不知道这个端口是干嘛用的,为啥要连这个。这个是实时集群上的端口
>
> Caizhi Weng <ts...@gmail.com> 于2021年8月27日周五 下午2:33写道:
>
> > Hi!
> >
> > 看起来是 Flink 集群不能访问到
> wx12-dsjrt-master001/xx.xx.xx.xx:8050,检查一下网络以及这个端口的状态看看?
> >
> > Jim Chen <ch...@gmail.com> 于2021年8月27日周五 下午1:59写道:
> >
> > > Hi, All
> > >
> > >
> >
> 我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
> > >   按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
> > > 2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
> > >                 [] - Retrying connect to server:
> > > wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
> > > policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50,
> > sleepTime=1000
> > > MILLISECONDS)。
> > >   大家在生产中是如何解决这种问题的呢?非常感谢!
> > >
> >
>


-- 
Best regards!
Rui Li

Re: 如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Posted by Jim Chen <ch...@gmail.com>.
Hi

集群上根本没有这个端口,也不知道这个端口是干嘛用的,为啥要连这个。这个是实时集群上的端口

Caizhi Weng <ts...@gmail.com> 于2021年8月27日周五 下午2:33写道:

> Hi!
>
> 看起来是 Flink 集群不能访问到 wx12-dsjrt-master001/xx.xx.xx.xx:8050,检查一下网络以及这个端口的状态看看?
>
> Jim Chen <ch...@gmail.com> 于2021年8月27日周五 下午1:59写道:
>
> > Hi, All
> >
> >
> 我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
> >   按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
> > 2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
> >                 [] - Retrying connect to server:
> > wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
> > policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50,
> sleepTime=1000
> > MILLISECONDS)。
> >   大家在生产中是如何解决这种问题的呢?非常感谢!
> >
>

Re: 如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Posted by Caizhi Weng <ts...@gmail.com>.
Hi!

看起来是 Flink 集群不能访问到 wx12-dsjrt-master001/xx.xx.xx.xx:8050,检查一下网络以及这个端口的状态看看?

Jim Chen <ch...@gmail.com> 于2021年8月27日周五 下午1:59写道:

> Hi, All
>
> 我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。
>   按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:
> 2021-08-27 13:50:22,902 INFO  org.apache.hadoop.ipc.Client
>                 [] - Retrying connect to server:
> wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry
> policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50, sleepTime=1000
> MILLISECONDS)。
>   大家在生产中是如何解决这种问题的呢?非常感谢!
>