其他分享
首页 > 其他分享> > Spark算子 - reduce

Spark算子 - reduce

作者:互联网


释义

reduce将partition内所有记录最终计算成1个记录,结果类型与reduce 时数据类型一致

方法签名如下:

def reduce(f: (T, T) => T): T = withScope {
    ...
}

案例

计算数组总和

object TestReduce {
  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setAppName("MyApp").setMaster("local[1]")
    val sc: SparkContext = new SparkContext(conf)
    val data = Array(1, 99, 2, 3)
    val result: Int = sc.parallelize(data).reduce(_ + _)
    println(result)
  }
}

输出

105

解释

RDD内所有记录进行两两计算,最终生成1个结果



标签:SparkContext,val,记录,reduce,result,算子,Spark,data
来源: https://www.cnblogs.com/convict/p/14864222.html