在spark中如何查看rdd的分区数是多少?

提问者:帅平 问题分类:大数据
在spark中如何查看rdd的分区数是多少?
1 个回答
我怕我伸手不及松手为空
我怕我伸手不及松手为空
通过partitons.size即可看到,例如:
val data = sc.parallelize(List(1,2,3,4,56,7,87,9))
println("分区数是:"+data.partitions.size)
发布于:2年前 (2022-12-08) IP属地:四川省
我来回答