You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by 猫猫 <16...@qq.com> on 2019/12/06 00:36:34 UTC

flink[table]-在table-sql-api下失败的数据能否转移到其它sink端?

我目前使用table-sql-api,采用tableEnv.sqlUpdate(ddl)方式注册kafka-topic以及mysql-table。

并使用tableEnv.sqlUpdate(dml)操作数据和写入目标端。


当我使用sql将数据写入目标mysql-table时,可能会存在数据超长等问题。
我能否以一种简单的方式将这些无法写入成功的数据剥离出来,并写入一个错误队列?


是否有简单的解决方案?否则我就得对每个字段添加校验,
例如主键冲突,字段超长等等,并且我无法提前校验表上的约束造成的问题。