第五章_Spark核心编程_Rdd_血缘关系
作者:互联网
1. RDD 血缘关系
/*RDD 血缘关系*/ /* * 1. 什么是Rdd的血缘关系? * 1.RDD 只支持粗粒度转换,即在大量记录上执行的单个操作。 * 2.将创建 RDD 的一系列 Lineage (血统)记录下来,以便恢复丢失的分区。 * 3.RDD的 Lineage 会记录RDD的 元数据信息和转换行为 * 当该RDD的部分分区数据丢失时,它可以根据这些信息来重新运算和恢复丢失的数据分区 * * 2. 怎样查看 Rdd的血缘关系? * rdd.toDebugString * */
2. RDD 依赖关系
/*RDD 依赖关系*/ /* * 1. 什么是Rdd的依赖关系? * 当前Rdd和父Rdd的依赖关系 * 2. 怎样查看 Rdd的依赖关系? * rdd.dependencies * */
3. RDD 窄依赖&宽依赖
/*RDD 窄依赖&宽依赖*/ /* * 1.什么是窄依赖? * 当前Rdd的1个分区 最多依赖父Rdd的一个分区 * 没有Shuffle过程,例如map、flatmap * * 2.什么是宽依赖? * 当前Rdd的1个分区 依赖父Rdd的多个分区数据 * 有SHuffle过程,例如groupBy * */
4. 示例
//查看 Rdd的血缘关系 object FindLineAge extends App { val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest") val sc: SparkContext = new SparkContext(sparkconf) private val rdd: RDD[String] = sc.textFile("Spark_319/src/data/*.txt") private val rdd1: RDD[String] = rdd.flatMap(_.split(" ")) private val rdd2: RDD[(String, Iterable[String])] = rdd1.groupBy(e => e) private val rdd3: RDD[(String, Int)] = rdd2.map(tp => (tp._1, tp._2.size)) println("****rdd*********************") println(rdd.toDebugString) println("****rdd1*********************") println(rdd1.toDebugString) println("*****rdd2********************") println(rdd2.toDebugString) println("*****rdd3********************") println(rdd3.toDebugString) rdd3.collect().foreach(println(_)) sc.stop() } //查看 Rdd的依赖关系 object Finddepend extends App { val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest") val sc: SparkContext = new SparkContext(sparkconf) private val rdd: RDD[String] = sc.textFile("Spark_319/src/data/*.txt") private val rdd1: RDD[String] = rdd.flatMap(_.split(" ")) private val rdd2: RDD[(String, Iterable[String])] = rdd1.groupBy(e => e) private val rdd3: RDD[(String, Int)] = rdd2.map(tp => (tp._1, tp._2.size)) println("****rdd*********************") println(rdd.dependencies) println("****rdd1*********************") println(rdd1.dependencies) println("*****rdd2********************") println(rdd2.dependencies) println("*****rdd3********************") println(rdd3.dependencies) rdd3.collect().foreach(println(_)) sc.stop() }
****rdd********************* (2) Spark_319/src/data/*.txt MapPartitionsRDD[1] at textFile at 血缘关系.scala:54 [] | Spark_319/src/data/*.txt HadoopRDD[0] at textFile at 血缘关系.scala:54 [] ****rdd1********************* (2) MapPartitionsRDD[2] at flatMap at 血缘关系.scala:57 [] | Spark_319/src/data/*.txt MapPartitionsRDD[1] at textFile at 血缘关系.scala:54 [] | Spark_319/src/data/*.txt HadoopRDD[0] at textFile at 血缘关系.scala:54 [] *****rdd2******************** (2) ShuffledRDD[4] at groupBy at 血缘关系.scala:60 [] +-(2) MapPartitionsRDD[3] at groupBy at 血缘关系.scala:60 [] | MapPartitionsRDD[2] at flatMap at 血缘关系.scala:57 [] | Spark_319/src/data/*.txt MapPartitionsRDD[1] at textFile at 血缘关系.scala:54 [] | Spark_319/src/data/*.txt HadoopRDD[0] at textFile at 血缘关系.scala:54 [] *****rdd3******************** (2) MapPartitionsRDD[5] at map at 血缘关系.scala:62 [] | ShuffledRDD[4] at groupBy at 血缘关系.scala:60 [] +-(2) MapPartitionsRDD[3] at groupBy at 血缘关系.scala:60 [] | MapPartitionsRDD[2] at flatMap at 血缘关系.scala:57 [] | Spark_319/src/data/*.txt MapPartitionsRDD[1] at textFile at 血缘关系.scala:54 [] | Spark_319/src/data/*.txt HadoopRDD[0] at textFile at 血缘关系.scala:54 [] ****rdd********************* List(org.apache.spark.OneToOneDependency@512575e9) ****rdd1********************* List(org.apache.spark.OneToOneDependency@617389a) *****rdd2******************** List(org.apache.spark.ShuffleDependency@348ad293) *****rdd3******************** List(org.apache.spark.OneToOneDependency@30f74e79)
标签:RDD,编程,scala,血缘关系,Rdd,println,Spark,rdd 来源: https://www.cnblogs.com/bajiaotai/p/16086309.html