其他分享
首页 > 其他分享> > Spark深入解析(六):SparkCore之Spark代码编写WordCount

Spark深入解析(六):SparkCore之Spark代码编写WordCount

作者:互联网

学习目标

WordCount思路

准备数据

将数据放在以下目录中
在这里插入图片描述

图解分析
在这里插入图片描述
说明:

WordCount代码实现

第一步:启动Spark-Shell

//进入spark
[root@node01 softwares]# cd ../servers/spark-2.2.0-bin-2.6.0-cdh5.14.0
//进入bin目录
[root@node01 spark-2.2.0-bin-2.6.0-cdh5.14.0]# cd bin/
//启动本地Spark-shell
[root@node01 bin]# ./spark-shell

看到以下界面,说明启动成功
在这里插入图片描述
第二步:读取文件
在这里插入图片描述
此处为什么可以直接将input路径输入,而不需要输入具体数据文件路径???

转换图解:与上图对比
在这里插入图片描述

//读取数据(textFile)
scala> val textFile=sc.textFile("input")
//读取文件,得到String类型的字符串(RDD)
textFile: org.apache.spark.rdd.RDD[String] = input MapPartitionsRDD[1] at textFile at <console>:24

//扁平化数据(flatMap)
scala> sc.textFile("input").flatMap
def flatMap[U](f: String => TraversableOnce[U])(implicit evidence$4: scala.reflect.ClassTag[U]): org.apache.spark.rdd.RDD[U]

//将数据结构转换(map)
scala> sc.textFile("input").flatMap(_.split(" ")).map((_,1))

//使用算子计算单词个数(reduceByKey)
scala> sc.textFile("input").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
res3: org.apache.spark.rdd.RDD[(String, Int)] = ShuffledRDD[16] at reduceByKey at <console>:25

//调用collect查询结果
scala> res3.collect
res4: Array[(String, Int)] = Array((Spark,1), (World,1), (Scala,1), (Hello,3))

标签:bin,scala,SparkCore,WordCount,input,Spark,textFile,spark
来源: https://blog.csdn.net/wzc8961661/article/details/105741126