1
Dinky 实时计算平台系列(二十三)Dinky0.x版本升级到1.0版本的踩坑之路
1.23 K
2
Dinky 实时计算平台系列(二十二)FlinkSql作业开发之FlinkSql-cdc + doris
1.94 K
3
Dinky 实时计算平台系列(二十一)FlinkSql作业开发之FlinkSql-cdc + kafka
1.17 K
4
Dinky 实时计算平台系列(二十)FlinkSql作业开发之FlinkSql-cdc
915
5
Dinky 实时计算平台系列(十九)FlinkSql作业开发之FlinkSql-Kafka
1.45 K
搜索一下
注册/
登录
繁
当前位置:
首页
问答社区
数据库
300亿行数据去重计数有什么好的方案推荐吗?
全部
面试刷题
微服务
数据库
消息队列
搜索引擎
大数据
运维
go语言
人工智能
300亿行数据去重计数有什么好的方案推荐吗?
提问者:
帅平
问题分类:
数据库
300亿行数据去重计数结果约30亿行(10亿行每天,需要统计30天中某一列的去重计数)有什么好的方案推荐吗?
Doris
发布于:2年前 (2023-08-16)
IP属地:四川省
我来回答
举报
1 个回答
踏尽风雪
转成bitmap字段,求交集。如果需要去重的字段是uuid这种,那么建议使用hash64,使用hash32碰撞很高。
发布于:2年前 (2023-08-16)
IP属地:四川省
有用
0
回复
举报
我来回答
您需要
登录
后回答此问题!