Spark系列(十七)理解Spark的数据抽象RDD 从本文开始,我们将着重介绍spark的核心内容。这篇文章我们主要介绍的就是spark的数据抽象RDD。在spark中,我们经常会听说RDD这个词,这个RDD其实指的是spark接口编程中的每一个数据集。先来看一张图:... Rae /spark系列 /2022-12-06 /0 评论 /239 阅读
Spark系列(十六)spark-submit命令提交有哪些参数 在上一篇文章里面我们介绍了spark应用程序提交,也提到过几个常见的参数,这篇文章我们详细介绍下对应的参数信息及说明。详细的参数如下:序号选项说明1--master指定使用哪个集群管理器来运行spark的应用程序,S... Rae /spark系列 /2022-12-06 /0 评论 /181 阅读
Spark系列(十五)把spark应用程序提交到yarn运行 在前面我们介绍了spark直接提交到standalone的集群运行,这里我们演示下把spark的程序提交到yarn上运行。在生产环境中我们一般都会把应用程序提交到yarn上运行,这几乎是我遇到的大数据公司的共识,通过... Rae /spark系列 /2022-12-06 /0 评论 /222 阅读
Spark系列(十四)把spark应用程序提交到spark集群里面去运行 之前的文章我们介绍了spark的wordcount应用程序开发,同时也把spark的wordcount应用程序修改为从hdfs上读取和写入,这篇文章我们介绍下如何把spark应用程序提交到spark集群里面运行。一、... Rae /spark系列 /2022-12-01 /0 评论 /177 阅读
Spark系列(十三)spark应用程序开发之使用hdfs读写文件 在前面我们介绍了使用scala开发一个spark的wordcount程序,当时读取的是本地,最后结果是打印出来,现在我们把这个文件上传到hdfs上,然后通过hdfs进行读写文件。(写这篇文章主要是为了写下一篇spar... Rae /spark系列 /2022-12-01 /0 评论 /225 阅读
使用docker方式安装spark集群 在前面我们介绍了直接在物理机上安装spark集群,详见《Spark学习(十)Spark集群安装》,在生产环境中我们肯定是必须使用这种方式安装。这篇文章我们介绍使用docker的方式安装一个spark集群,这样可以在测... Rae /spark系列 /2022-12-01 /0 评论 /776 阅读
Spark系列(十二)使用scala编写第一个spark应用程序-HelloWord 在IT界学习一个技术,编写的第一个应用程序就是HelloWord,因此在这里,我们使用scala编写以第一个spark应用程序:helloword。备注:这里我们主要演示使用scala编写一个spark的wordco... Rae /spark系列 /2022-12-01 /0 评论 /267 阅读
Spark系列(十一)Idea配置scala的环境,并且添加maven的scala项目模板 在开发spark相关的应用程序的时候,我们最好使用idea软件工具,因为idea使用scala开发的时候不会很卡,这里主要是针对eclipse,在eclipse上会自动编译,开发起来写代码很卡。这篇文章我们介绍下如何... Rae /spark系列 /2022-12-01 /0 评论 /199 阅读
Spark系列(十)Spark集群安装 我们在前面介绍了spark相关的基础知识,这篇文章我们介绍下spark的集群安装,先把spark跑起来看一下是一个什么内容,然后再继续接着其他知识点讲解。一、准备3台服务器这里我们准备3台服务器做测试节点,分别是:序... Rae /spark系列 /2022-11-27 /0 评论 /300 阅读
Spark系列(九)Spark应用程序介绍 在spark的开发中,我们一般会开发对应的应用程序,这里我们一般把他称为是一个application或者job。一个应用程序里面包含自己当前应用程序所需要操作的所有逻辑。在应用程序开发完毕之后,我们需要把这个应用程序... Rae /spark系列 /2022-11-27 /0 评论 /210 阅读