You are viewing a plain text version of this content. The canonical link for it is here.
Posted to user-zh@flink.apache.org by JasonLee <17...@163.com> on 2021/08/04 04:45:07 UTC
回复:kafka appender限流
Hi
只有 error 级别的日志这个数据量我理解应该不大吧? 是 CPU 被打满 还是磁盘 IO 被打满了?
Best
JasonLee
在2021年08月4日 12:25,datafollower<60...@qq.com.INVALID> 写道:
hi all我们flink平台想收集所有流任务(5000+)error日志到kafka做进一步分析,通过 log4j2 的原生kafkaappender实现
大家是否遇到过这样的场景:大量任务error日志突增,打满kafka,导致整条链路瘫痪
小问题:
1.是否有什么方法做kafka appender的限速,比如:每秒error log达到10条,我就丢弃
2.有其他方式,避免平台无法预知的抖动,导致error日志突曾导致的kafka瓶颈
回复:kafka appender限流
Posted by datafollower <60...@qq.com.INVALID>.
磁盘打满,扩容后恢复,但是平时量其实不多
------------------ 原始邮件 ------------------
发件人: "user-zh" <17610775726@163.com>;
发送时间: 2021年8月4日(星期三) 中午12:45
收件人: "user-zh@flink.apache.org"<user-zh@flink.apache.org>;
主题: 回复:kafka appender限流
Hi
只有 error 级别的日志这个数据量我理解应该不大吧? 是 CPU 被打满 还是磁盘 IO 被打满了?
Best
JasonLee
在2021年08月4日 12:25,datafollower<609326234@qq.com.INVALID> 写道:
hi all我们flink平台想收集所有流任务(5000+)error日志到kafka做进一步分析,通过 log4j2 的原生kafkaappender实现
大家是否遇到过这样的场景:大量任务error日志突增,打满kafka,导致整条链路瘫痪
小问题:
1.是否有什么方法做kafka appender的限速,比如:每秒error log达到10条,我就丢弃
2.有其他方式,避免平台无法预知的抖动,导致error日志突曾导致的kafka瓶颈