其他分享
首页 > 其他分享> > Spark RDD学习

Spark RDD学习

作者:互联网

RDD(弹性分布式数据集)是Spark的核心抽象。它是一组元素,在集群的节点之间进行分区,以便我们可以对其执行各种并行操作。

创建RDD的两种方式:

并行化集合

要创建并行化集合,在驱动程序中现有的集合上调用SparkContextparallelize方法。复制集合的每个元素以形成可以并行操作的分布式数据集。
%Spark
val info=Array(1,2,3,4) val distInfo=sc.parallelize(info)
%操作分布式数据集 distinfo.reduce((a, b) => a + b)

外部数据集

在Spark中,可以从Hadoop支持的任何类型的存储源(如HDFS,Cassandra,HBase甚至本地文件系统)创建分布式数据集。Spark 支持文本文件(text files),SequenceFiles 和其他 Hadoop InputFormat

SparkContexttextFile方法可用于创建RDD的文本文件。此方法获取文件的URI(本地路径或hdfs://,s3n://等)并读取文件的数据,将文件读取成一个行集合。

 

 一旦创建完成,distFiile 就能做数据集操作。例如,我们可以用下面的方式使用 map 和 reduce 操作将所有行的长度相加:distFile.map(s => s.length).reduce((a, b) => a + b)

RDD的两种操作:

转换:在Spark中,转换的作用是从现有数据集创建新数据集。转换是惰性的,因为它们仅在动作需要将结果返回到驱动程序时才计算。

行动:在Spark中,操作的作用是在对数据集运行计算后将值返回给驱动程序。

 

 



标签:返回,numPartitions,元素,学习,RDD,func,Spark,数据
来源: https://www.cnblogs.com/Ao0216/p/15840274.html