栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 其他 > Spark

Spark ON Yarn的资源分配图解

Spark 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力



任务提交脚本 脚本模板

当我们提交一个Spark作业到YARN上,通常情况下会使用如下的脚本模板:

  1. spark-submit     --class class-name 
  2.     --master yarn     --deploy-mode cluster 
  3.     --driver-memory 4g     --num-executors 2 
  4.     --executor-memory 2g     --executor-cores 2 



参数解读

具体参数的含义如下图所示:



executor-cores

每个executor的最大核数

num-executors=每个node的executor数 * work节点的数

每个node的executor数 = 总核数 / 每个executor的最大cup核数,具体是通过参数

yarn.nodemanager.resource.cpu-vcores进行配置,比如该值配置为:33,参数executor-cores的值为:5,那么每个node的executor数 = (33 - 1[操作系统预留])/ 5 = 6,假设集群节点为10,那么num-executors = 6 * 10 =60

executor-memory

该参数的值依赖于:yarn-nodemanager.reaource.memory-mb,该参数限定了每个节点的container的最大内存值。

该参数的值=yarn-nodemanager.reaource.memory-mb / 每个节点的executor数量 ,如果yarn的参数配置为160,那么

yarn-nodemanager.reaource.memory-mb / 每个节点的executor数量 = 160 / 6 ≈ 26GB

Spark程序提交运行过程



提交作业 资源管理器分配资源启动app master App master与Driver会同步被创建 Spark driver与resource manager通信获取每个节点的可用资源 resource manager 分配资源 spark driver启动work节点上的executor executor向driver发送心跳信息 driver发送结果到客户端 内存管理图解



Spark2.X的内存管理模型如下图所示:



Spark中的内存使用大致包括两种类型:执行和存储。

执行内存是指用于用于shuffle、join、排序、聚合等计算的内存

存储内存是指用于在集群中持久化和广播内部数据的内存。

在Spark中,执行内存和存储内存共享一个统一的区域。当没有使用执行内存时,存储内存可以获取所有可用内存,反之亦然。如有必要,执行内存可以占用存储存储,但仅限于总存储内存使用量低于某个阈值。

该设计确保了几种理想的特性。首先,不使用缓存的应用程序可以使用整个空间执行,从而避免不必要的磁盘溢出。其次,使用缓存的应用程序可以保留最小存储空间。最后,这种方法为各种工作负载提供了合理的开箱即用性能,而无需用户内部划分内存的专业知识。

虽然有两种相关配置,但一般情况下不需要调整它们,因为默认值适用于大多数工作负载:

spark.memory.fraction默认大小为(JVM堆内存 - 300MB)的一小部分(默认值为0.6)。剩下的空间(40%)保留用于用户数据结构,Spark中的内部元数据,以及在稀疏和异常大的记录的情况下防止OOM错误。spark.memory.storageFraction默认大小为(JVM堆内存 - 300MB)0.60.5。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/796571.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号