1
Dinky 实时计算平台系列(二十三)Dinky0.x版本升级到1.0版本的踩坑之路
1.23 K
2
Dinky 实时计算平台系列(二十二)FlinkSql作业开发之FlinkSql-cdc + doris
1.94 K
3
Dinky 实时计算平台系列(二十一)FlinkSql作业开发之FlinkSql-cdc + kafka
1.17 K
4
Dinky 实时计算平台系列(二十)FlinkSql作业开发之FlinkSql-cdc
915
5
Dinky 实时计算平台系列(十九)FlinkSql作业开发之FlinkSql-Kafka
1.45 K
搜索一下
注册/
登录
繁
当前位置:
首页
问答社区
数据库
我们数据量太大了,每天每个分区大概有500多G,我采用s3 的 table value function 读不了,过滤查询好像也不行
全部
面试刷题
微服务
数据库
消息队列
搜索引擎
大数据
运维
go语言
人工智能
我们数据量太大了,每天每个分区大概有500多G,我采用s3 的 table value function 读不了,过滤查询好像也不行
提问者:
帅平
问题分类:
数据库
我们数据量太大了,每天每个分区大概有500多G,我采用s3 的 table value function 读不了,过滤查询好像也不行,这种我直接把500G拉倒本地,然后stream load也是一笔不小的开销啊,有没有什么好的方法啊
Doris
发布于:1年前 (2023-12-21)
IP属地:未知
我来回答
举报
2 个回答
命里最重要的人
如果是数据源Kafka,可以采用routine load
发布于:1年前 (2023-12-21)
IP属地:未知
有用
0
回复
举报
到头来只是玩笑一场
内网还好 外网够呛
发布于:1年前 (2023-12-21)
IP属地:未知
有用
0
回复
举报
我来回答
您需要
登录
后回答此问题!