栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark部署测试

spark部署测试

文章目录

1、下载并解压spark包,注意要和hadoop版本适配。2、修改配置文件。3、测试服务。4、配置高可用spark。5、测试高可用spark。6、测试hadoop01的单点故障。

1、下载并解压spark包,注意要和hadoop版本适配。
[root@hadoop01 software]# tar -xzvf spark-3.2.0-bin-hadoop2.7.tgz -C /export/servers/

2、修改配置文件。


[root@hadoop01 conf]# vim spark-env.sh

#配置java环境变量
export JAVA_HOME=/export/servers/jdk

#指定Master的IP
export SPARK_MASTER_HOST=hadoop01

#指定Master端口
export SPARK_MASTER_PORT=7077

[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop02:/export/servers/
[root@hadoop01 conf]# scp -r /export/servers/spark/ hadoop03:/export/servers/
3、测试服务。



4、配置高可用spark。

添加环境变量

export SPARK_HOME=/export/servers/spark
export PATH=$PATH:$SPARK_HOME/bin                                     

修改配置文件,注销指定IP,添加如下内容。
[root@hadoop01 conf]# vim spark-env.sh

[root@hadoop01 conf]# scp spark-env.sh hadoop02:/export/servers/spark/conf/
spark-env.sh                                                                                                                                                                   100% 4778     5.2MB/s   00:00    
[root@hadoop01 conf]# scp spark-env.sh hadoop03:/export/servers/spark/conf/
spark-env.sh        
5、测试高可用spark。

各节点zkServer.sh start启动zookeeper
然后启动spark

在hadoop02中单独启动master服务,因为现在mater服务在hadoop01中式alive的,所以这一部分是standby,随时准备好当hadoop01故障时进行转换。

6、测试hadoop01的单点故障。

先停掉hadoop01的master服务

经过了zookeeper高可用的选举,最终hadoop02继承了hadoop01.

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/722943.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号