栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark 分区 和 并行度

spark 分区 和 并行度

1Spark job中最小执行单位为task 一个rdd有分区组成,这是rdd五大特性之一

2一个分区就是task 参考spark.default.parallelism的参数配置

3参数numPartitions来显示指定分区数 groupByKey(numPartitions: Int)

4加载HDFS上的数据生成的RDD,它的分区数由InputFormat切分机制决定, block块对应一个分区

5通常,RDD的分区数与其所依赖的RDD的分区数相同,除非shuffle

6增加分区用repartition会触发shuffle,shuffle的情况下可以增加分区数,

减少分区用coalesce默认不触发shuffle

7Spark SQL中,任务并行度参数则要参考spark.sql.shuffle.partitions

8能够并行计算的任务数量我们称之为并行度。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/706858.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号