栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

job has not accepted any resources; check your cluster UI to ensure that workers are registered and

job has not accepted any resources; check your cluster UI to ensure that workers are registered and

Spark 执行 spark-submit 提交jar包执行

[root@hadoop0 spark-2.1.0-bin-hadoop2.7]# bin/spark-submit --master spark://hadoop0:7077 --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.11-2.1.0.jar 200

时报错如下:

报错: job没有接受任何资源;检查集群UI,确保workers已注册并拥有足够的资源。
我检查了集群机器的磁盘空间发现没问题,也去UI界面看了节点状态没问题:

但发现spark-shell开启着,于是本着试试看的态度,将spark-shell关闭后再执行spark-submit命令,发现可以执行了:

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/582491.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号