Spark系列(三十四)SparkSql的架构组成 在spark sql中,整个spark sql的架构图如下:从上图中我们可以看到可以分为3层,分别是:语言API层。下面分别介绍一下:语言API层spark支持python,HiveQL,Scala,Java等编程语... Raespark系列2022-12-08792 阅读0 评论
Spark系列(三十三)SparkSql数据抽象 在spark中,前面的系列操作可以让我们自由的操作各种rdd的数据,从本篇文章开始,我们开始介绍更加简化理解和开发的模块,即Spark Sql数据抽象。Spark Sql可以看作是把以前的rdd再进行了一次抽象,即我... Raespark系列2022-12-08804 阅读0 评论
Spark案例介绍(三)二次排序 在使用spark的场景里面,二次排序是我们经常会使用到的应用场景,那么什么是二次排序呢?二次排序就是类似把key-value pair的rdd首先根据key进行排序,再根据value进行排序。这个案例我们介绍根据sp... Raespark项目实战2022-12-08944 阅读0 评论
Spark案例介绍(二)合并小文件 在spark的场景里面我们有时候会遇到很多场景,例如不同的客户端收集的日志都保存到对应client目录里面,此时如果我们分析的时候,日志文件都分布在不同的目录里面,而且可能由于写文件的规则产生很多个小文件,那有没有办... Raespark项目实战2022-12-08945 阅读0 评论
Spark案例介绍(一)TopN案例(找出班里成绩排名前10的学生) 这篇文章我们介绍一下spark的案例,也就是大家常见的TopN的问题,这个主要介绍案例,本案例的场景是一个班里有20个学生,统计下所有学生的前5名。[NeadPay]... Raespark项目实战2022-12-08827 阅读0 评论
Spark系列(三十二)Accumulator累加器 在spark中,我们可能会在某些节点上使用同一个变量的值做加法,最后统计总的结果。这时候spark为我们提供了一个累加器。也就是声明一个累加器,然后我们可以在各个executor对当前的累加器进行计数操作。下面演示一... Raespark系列2022-12-08840 阅读0 评论
Spark系列(三十一)Broadcast广播变量 在spark中,我们可能会在某个节点上使用同一个变量的值,所以这时候spark为我们提供了一个广播变量。也就是把某个值做成广播变量,然后spark会把这个变量作为一个只读属性的变量分发给所有的集群节点。此时这些节点可... Raespark系列2022-12-08690 阅读0 评论
Spark系列(三十)关于RDD的分区调整介绍 在spark应用程序执行的时候,每一个rdd都会有分区,当我们没有指定分区的时候,则分区数量是根据spark的配置项:spark.default.parallelism决定的,但是我们常常需要根据spark的集群信息... Raespark系列2022-12-08843 阅读0 评论
Spark系列(二十九)关于RDD的检查点Checkpoint 在spark中,特别是流计算的时候使用这种RDD的检查点会比较多。在spark的整个运行中,我们可以知道整个rdd会形成一个拓扑图,里面主要是各个rdd的依赖信息。如下图:这篇文章我们介绍spark的检查点,也就是c... Raespark系列2022-12-08846 阅读0 评论
Spark系列(二十八)关于RDD的持久化 在spark应用程序执行的时候,整个链路会产生非常多的rdd。在前面我们介绍过使用transformation的时候,只有遇到action的时候才会执行相关的transformation,也就是这些rdd是惰性执行的... Raespark系列2022-12-07704 阅读0 评论
热文Spark系列(二十七)关于combineByKey的使用说明 在spark中,对于rdd进行combineByKey,那这个rdd一定是一个key-value pair 类型的rdd。在这里使用combineByKey的时候,可能会遇到TupleN的参数格式,例如,如果我们得数... Raespark系列2022-12-073854 阅读0 评论
Spark系列(二十六)关于aggregateByKey的使用说明 在spark中,对于rdd进行aggregateByKey,那这个rdd一定是一个key-value pair 类型的rdd。在这里使用aggregateByKey的时候,可能会遇到TupleN的参数格式,例如,如果... Raespark系列2022-12-06871 阅读0 评论
Spark系列(二十五)关于reduceByKey的使用说明 在spark中,对于rdd进行reduceByKey,那这个rdd一定是一个key-value pair 类型的rdd。这个reduceByKey的主要作用就是把相同key的数据对象合并到一起。常见的应用场景是wor... Raespark系列2022-12-06666 阅读0 评论
Spark系列(二十四)关于groupByKey的使用说明 在spark中,对于rdd的操作还提供了groupByKey,如果使用到了groupByKey,那么此时的rdd也一定是一个key-value pair类型的RDD。这里的groupByKey其实主要就是根据key值... Raespark系列2022-12-06612 阅读0 评论
Spark系列(二十三)关于sortByKey的使用说明 在spark中,对于rdd进行sortByKey,那这个rdd一定是一个key-value pair 类型的rdd。同时这个函数就对key进行排序。在进行排序的时候我们可以选择使用升序排序还是降序排序。使用示例如下:... Raespark系列2022-12-06705 阅读0 评论