You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by china_tao <ta...@163.com> on 2020/09/23 10:50:09 UTC

kafka增加字段,hive表如何处理

flink1.11.1,flink sql,已经实现flink sql 读取kafka,存储到hive。现在的问题是,kafka源增加字段了,flink
sql中的hive如何修改。直接在hive中增加字段的话,每次启动,会报 hive表已经存在,如果drop table if
exists的话,历史数据就会丢。请问大家是如何处理的,谢谢。



--
Sent from: http://apache-flink.147419.n8.nabble.com/

Re: kafka增加字段,hive表如何处理

Posted by Rui Li <li...@gmail.com>.
Hi,

直接给hive表增加字段遇到的具体问题是什么呢?把stacktrace贴一下吧。

On Wed, Sep 23, 2020 at 6:50 PM china_tao <ta...@163.com> wrote:

> flink1.11.1,flink sql,已经实现flink sql
> 读取kafka,存储到hive。现在的问题是,kafka源增加字段了,flink
> sql中的hive如何修改。直接在hive中增加字段的话,每次启动,会报 hive表已经存在,如果drop table if
> exists的话,历史数据就会丢。请问大家是如何处理的,谢谢。
>
>
>
> --
> Sent from: http://apache-flink.147419.n8.nabble.com/



-- 
Best regards!
Rui Li