spark默认情况下资源分配是粗粒度的,也就是说程序在提交时就分配好资源,后面执行的时候使用分配好的资源,除非资源出现了故障才会重新分配。比如Spark shell启动,已提交,一注册,哪怕没有任务,worker都会分配资源给executor。
上一篇 本周学习内容【banner第三周】
下一篇 Hive - 传参hiveconf,hivevar
版权所有 (c)2021-2022 MSHXW.COM
ICP备案号:晋ICP备2021003244-6号