栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

关于Spark中Stage的传输Pipeline

关于Spark中Stage的传输Pipeline

关于Spark中Stage的传输Pipeline⭐

首先pipeline管道计算模式,pipeline只是一种计算思想,一种模式,跟MR不同于,pipeline是将逻辑完全走完才会进行结果的落地,MR则是计算一下持久化磁盘,再进行计算,这也是MR与Spark速度上差距的根本原因(代码实现Stage中的Pipeline)主要是体现了ReduceByKey的内部过程


object Pipeline {
  def main(args: Array[String]): Unit = {
    //创建连接
    val conf = new SparkConf()
    conf.setMaster("local").setAppName("PPLine");
    val sc = new SparkContext(conf)
    //设置一个两个并发数的数组(2个分区数)
    val rdd = sc.parallelize(Array(1, 2, 3, 4, 5, 6, 7, 8), 2)
  
    val rdd1: RDD[Int] = rdd.map(x => {
      println("rdd1----[pid" + TaskContext.get.partitionId + "]----" + x)
      x
    })
    val rdd2: RDD[Int] = rdd1.filter(x => {
      println("rdd2----[pid" + TaskContext.get.partitionId + "]----" + x)
      true
    })
    val rdd3: RDD[(String, Int)] = rdd2.map(x => {
      println("rdd3----[pid" + TaskContext.get.partitionId + "]----" + x)
      Tuple2("yjx" + x % 3, x)
    })

    //在RDD4中进行一个分区运算,在RDD4算子之后会被单独划分出一个stage用于计算(2——>4遇到宽依赖)
    val rdd4: RDD[(String, Int)] = rdd3.reduceByKey((sum: Int, value: Int) => {
      println("rdd4----[pid" + TaskContext.get.partitionId + "]----" + sum + "---" + value)
      sum + value
    }, 3)

    val rdd5: RDD[(String, Int)] = rdd4.map(x => {
      println("rdd5----[pid" + TaskContext.get.partitionId + "]----" + x)
      x
    })
    //启动算子
    rdd5.count
    sc.stop()
  }
}

以上代码就是体现了一组数据在pipeline的执行顺序,被划分两个stage,先是RDD1RDD4之间的一个简单的打印过滤(`stage1`),再是RDD4RDD5之间的一个计算打印(stage2)


//含义如下:
  



流程图:


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/742726.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号