You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by jianjianjianjianjianjianjianjian <72...@qq.com.INVALID> on 2022/02/15 11:07:21 UTC
回复:jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出
老师你好,感谢您的回复,已确认是issue中的问题,截图为checkflushexception方法被调用的位置。
---原始邮件---
发件人: "Caizhi Weng"<tsreaper96@gmail.com>
发送时间: 2022年2月15日(周二) 中午11:04
收件人: "flink中文邮件组"<user-zh@flink.apache.org>;
主题: Re: jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出
Hi!
图片不能显示,建议传到 imgur 等外部图床上,并在邮件里贴出链接。
虽然看不到图片,但看描述应该是一个已知问题 [1],只是目前还没人修复。
[1] https://issues.apache.org/jira/browse/FLINK-24677
jianjianjianjianjianjianjianjian <724125785@qq.com.invalid> 于2022年2月14日周一
15:40写道:
> 老师们,你们好:
> 在使用jdbc connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据*
> ,异常信息打印,但错误信息不会抛出,且异常信息会不断嵌套。该情况可能会导致问题延迟。
> 当前使用为1.13版本 org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat
> 类
> 查阅 master 分支的 org.apache.flink.connector.jdbc.internal.
> JdbcOutputFormat 类也存在类似问题,代码截图如下:
>
> *1.13版本:*
>
> master 分支:
>
>
>
>
>