注册/
登录
繁
搜索一下
全部
面试刷题
微服务
数据库
消息队列
搜索引擎
大数据
运维
go语言
机器学习
我们数据量太大了,每天每个分区大概有500多G,我采用s3 的 table value function 读不了,过滤查询好像也不行
提问者:
帅平
问题分类:
数据库
我们数据量太大了,每天每个分区大概有500多G,我采用s3 的 table value function 读不了,过滤查询好像也不行,这种我直接把500G拉倒本地,然后stream load也是一笔不小的开销啊,有没有什么好的方法啊
Doris
发布于:4个月前 (12-21)
IP属地:未知
我来回答
举报
2 个回答
命里最重要的人
如果是数据源Kafka,可以采用routine load
发布于:4个月前 (12-21)
IP属地:未知
有用
0
回复
举报
到头来只是玩笑一场
内网还好 外网够呛
发布于:4个月前 (12-21)
IP属地:未知
有用
0
回复
举报
我来回答
您需要
登录
后回答此问题!