1
Dinky 实时计算平台系列(二十三)Dinky0.x版本升级到1.0版本的踩坑之路
1.23 K
2
Dinky 实时计算平台系列(二十二)FlinkSql作业开发之FlinkSql-cdc + doris
1.94 K
3
Dinky 实时计算平台系列(二十一)FlinkSql作业开发之FlinkSql-cdc + kafka
1.17 K
4
Dinky 实时计算平台系列(二十)FlinkSql作业开发之FlinkSql-cdc
915
5
Dinky 实时计算平台系列(十九)FlinkSql作业开发之FlinkSql-Kafka
1.45 K
搜索一下
注册/
登录
繁
当前位置:
首页
问答社区
大数据
flink消费kafka的数据写入iceberg,数据量大导致OOM了怎么办?
全部
面试刷题
微服务
数据库
消息队列
搜索引擎
大数据
运维
go语言
人工智能
flink消费kafka的数据写入iceberg,数据量大导致OOM了怎么办?
提问者:
帅平
问题分类:
大数据
flink读取kafka数据,由于一些原因需要将kafka重新消费kafka的历史数据,
由于消费的数据量较大,flink会全力消费数据,这个时候回导致flink的taskmanager OOM(java.lang.OutOfMemoryError: Java heap space
)
这个一般怎么处理?限速吗?这个一般怎么处理
Flink
数据湖
Kafka
Iceberg
发布于:3个月前 (01-22)
IP属地:四川省
我来回答
举报
1 个回答
ε小仙女з
可以考虑限速,把flink的source并行度调低一点即可。
发布于:3个月前 (01-22)
IP属地:四川省
有用
0
回复
举报
我来回答
您需要
登录
后回答此问题!