You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 天之痕 <57...@qq.com> on 2019/04/02 03:20:54 UTC
回复: flink on yarn ha 高可用问题
请问该怎么处理,我目前在hadoop中配置了
<property>
<name>fs.defaultFS</name>
<value>hdfs://hacluster/</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.hacluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
hadoop中是能模拟namenode切换的
1.请问现在flink中怎么配置?目前flink的环境都安装了hadoop,导出了hadoop环境变量
2.如果要求客户端也要包含hdfs ha的配置,那是不是flink扩展的同时也到在对应的服务器上配置hadoop,同时进行hadoop扩展?
------------------ 原始邮件 ------------------
发件人: "Lin Li"<li...@gmail.com>;
发送时间: 2019年4月2日(星期二) 上午9:47
收件人: "user-zh"<us...@flink.apache.org>;
主题: Re: flink on yarn ha 高可用问题
hdfs ha mode 下配置 logical name (
https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html
)
flink 中访问配置的 hdfs logical name (同时需要确保 flink task 运行环境 hdfs-client 中也包含了
hdfs ha 配置的 hdfs logical name 和实际指向的 namedone 映射关系)
天之痕 <57...@qq.com> 于2019年4月2日周二 上午9:07写道:
> flink on yarn ha模式下
> state.checkpoints.dir:
> hdfs://namenode-host:port/flink-checkpoints这个配置怎么配置能进行namenode能自动切换
>
> 现在只能指定namenode的hostname,假设这个namenode节点挂了,或者standby状态,flink任务checkpoint就报错,只能把节点起来,而且要将其切换为active节点
> 目前hadoop namenode已经进行ha部署了,手动kill 一个namenode进程能自动切换;暂时理解flink中这个配置貌似只能配死一个
>
>
> 请问如何解决这个问题,保证flink的高可用
Re: flink on yarn ha 高可用问题
Posted by Biao Liu <mm...@gmail.com>.
Hi,
这问题其实跟 Flink 无关,请了解下 HDFS nameservice。正确配置 HDFS 后,在 Flink 中填写路径时就不需要写死 name
node 地址了
天之痕 <57...@qq.com> 于2019年4月2日周二 上午11:29写道:
> 请问该怎么处理,我目前在hadoop中配置了
>
> <property>
>
> <name>fs.defaultFS</name>
>
> <value>hdfs://hacluster/</value>
> </property>
>
>
>
> <property>
>
> <name>dfs.client.failover.proxy.provider.hacluster</name>
>
>
> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
> </property>
>
>
> hadoop中是能模拟namenode切换的
>
>
> 1.请问现在flink中怎么配置?目前flink的环境都安装了hadoop,导出了hadoop环境变量
> 2.如果要求客户端也要包含hdfs ha的配置,那是不是flink扩展的同时也到在对应的服务器上配置hadoop,同时进行hadoop扩展?
>
>
>
>
>
>
>
>
> ------------------ 原始邮件 ------------------
> 发件人: "Lin Li"<li...@gmail.com>;
> 发送时间: 2019年4月2日(星期二) 上午9:47
> 收件人: "user-zh"<us...@flink.apache.org>;
>
> 主题: Re: flink on yarn ha 高可用问题
>
>
>
> hdfs ha mode 下配置 logical name (
>
> https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html
> )
> flink 中访问配置的 hdfs logical name (同时需要确保 flink task 运行环境 hdfs-client 中也包含了
> hdfs ha 配置的 hdfs logical name 和实际指向的 namedone 映射关系)
>
>
> 天之痕 <57...@qq.com> 于2019年4月2日周二 上午9:07写道:
>
> > flink on yarn ha模式下
> > state.checkpoints.dir:
> > hdfs://namenode-host:port/flink-checkpoints这个配置怎么配置能进行namenode能自动切换
> >
> >
> 现在只能指定namenode的hostname,假设这个namenode节点挂了,或者standby状态,flink任务checkpoint就报错,只能把节点起来,而且要将其切换为active节点
> > 目前hadoop namenode已经进行ha部署了,手动kill
> 一个namenode进程能自动切换;暂时理解flink中这个配置貌似只能配死一个
> >
> >
> > 请问如何解决这个问题,保证flink的高可用