You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by "cljbest@163.com" <cl...@163.com> on 2019/12/06 08:13:54 UTC

关于flink和hadoop版本的问题

您好:
    问一个关于flink和hadoop版本的问题。目前我们生产环境是hadoop3.0+的版本,现在官网上flink1.9+没有直接打包好的捆绑的hadoop3.0+的版本。
     但是我自己下载flink1.9.1版本,然后下载了  可选组件里的 Pre-bundled Hadoop 2.8.3 (asc, sha1)  ,并且将这个包放到flink的lib下,也是可以正常操作hadoop的。
请问这样有什么影响吗? 因为自己下载flink源码打包一直没有编译成功。麻烦告知!
 
感谢!
陈军



cljbest@163.com

Re: 关于flink和hadoop版本的问题

Posted by jingwen jingwen <ji...@gmail.com>.
没有什么问题的,只是hadoop2.8和hadoop3.0在一些特性上存在不一样,对于你正常使用flink不受影响

下载flink源码打包一直没有编译成功,需要看下问题的原因,可能是一些maven的源的问题

cljbest@163.com <cl...@163.com> 于2019年12月6日周五 下午4:14写道:

> 您好:
>
> 问一个关于flink和hadoop版本的问题。目前我们生产环境是hadoop3.0+的版本,现在官网上flink1.9+没有直接打包好的捆绑的hadoop3.0+的版本。
>      但是我自己下载flink1.9.1版本,然后下载了  可选组件里的 Pre-bundled Hadoop 2.8.3 (asc,
> sha1)  ,并且将这个包放到flink的lib下,也是可以正常操作hadoop的。
> 请问这样有什么影响吗? 因为自己下载flink源码打包一直没有编译成功。麻烦告知!
>
> 感谢!
> 陈军
>
>
>
> cljbest@163.com
>