其他分享
首页 > 其他分享> > 使用Spark RDD完成词频统计

使用Spark RDD完成词频统计

作者:互联网

1、实验要求

对给定的一个英文文本,使用Spark完成文本内容的读取并转换成RDD,然后使用RDD的算子统计每个单词出现的次数,将统计结果按从大到小的顺序打印到控制台上。

2、实验代码

import findspark
findspark.init()
from pyspark import SparkContext, SparkConf

sparkConf = SparkConf()
sparkConf.setAppName("wordcount")
sparkConf.setMaster("local")
sparkContext = SparkContext(conf=sparkConf)

txtFile = r'C:\Users\LYW\Desktop\英文文档.txt'  # 文件路径
rdd = sparkContext.textFile(txtFile)

rdd.flatMap(lambda x: x.split()).map(lambda x: (x, 1)).reduceByKey(lambda x, y: x + y).sortBy(keyfunc=(lambda x: x[1]),ascending=False).foreach(lambda x: print(x))

3、编程思路

既然我们要统计单词出现的次数,那么就要先把数据导入,可以用sc.txtFile()方法来加载文件数据,该方法把文件的URI作为参数,要分割单词,就可以使用rdd中的flatMap方法,它会遍历textFile中的每行文本内容,当遍历到其中一行文本内容时,会把文本内容赋值给变量x,并执行lamda表达式。接着执行x.split()).map(lambda x: (x, 1))会得到一个映射map,这个映射中包含了很多个(key,value),针对这个映射,执行reduceByKey(lambda x, y: x + y)操作,这个操作会把映射中的所有(key,value)按照key进行分组,然后使用sortBy函数进行按照词频降序排序,最后使用foreach遍历打印结果,这样就计算得到了这个单词的词频。

标签:映射,单词,RDD,词频,Spark,文本,sparkConf,lambda
来源: https://www.cnblogs.com/ywyc/p/15470954.html