栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark基于standalone模式集群部署--centos7环境

spark基于standalone模式集群部署--centos7环境

一、前期准备

1、三台虚拟机
2、spark安装包,我的版本spark-3.1.2-bin-hadoop3.2
3、scala环境,我的版本scala-2.11.8
4、jdk,我的版本jdk-8u181

二、操作系统准备

1、先配置一台机器,后续可通过虚拟机克隆来进行操作
2、安装相关命令

yum -y install vim
yum -y install net-tools
yum -y install tar

3、设置静态ip

vim /etc/sysconfig/network-scripts/ifcfg-ens33
#将BOOTPROTO修改为static
#新增
#IPADDR=192.168.88.136
#NETMASK=255.255.255.0
#GATEWAY=192.168.88.2
#DNS1=192.168.88.2
#DNS2=192.168.88.0
#修改完成后重启网络:
service network restart

4、主机名映射
修改主机名并修改host文件

hostnamectl set-hostname master 
vim /etc/hosts
192.168.153.136  master
192.168.153.137  worker1
192.168.153.138  worker2

按照你的ip和主机名配置成以上形式,这时可以用xshell连接(操作比较方便)
5、关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
#注意一定要关闭,不然部署成功通过web访问不了很可能因为防火墙没关

6、安装jdk
1)把jdk压缩包放到/root目录,解压压缩包到指定路径

tar -xzvf jdk-8u181-linux-x64.tar.gz -C /var/local
#修改名称,也可以不修改
mv /var/local/jdk1.8.0_181 /var/local/jdk8

2)配置环境变量

vim /etc/profile
#新增如下几条
export JAVA_HOME=/var/local/jdk8                                 
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH                                 

3)检验是否安装成功

#首先使环境变量生效
source /etc/profile
java -version

若出现以下显示,表示安装成功

7、安装scala

#把scala随意放到一个目录下,我的是/root/Downloads
mv scala-2.11.8.tgz Downloads/
#解压
tar -zxvf scala-2.11.8.tgz

1)、配置环境变量

vim /etc/profile
#新增一条
export SCALA_HOME=/root/Downloads/scala-2.11.8
#修改PATH
export PATH=$JAVA_HOME/bin:$PATH:$SCALA_HOME/bin

2)、检验是否安装成功

source /etc/profile
scala -version

若出现以下,表示安装成功

8、安装spark

#和scala类似,把spark压缩包放到/root/Downloads下
tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz

1)配置环境变量

#新增一条
export SPARK_HOME=/root/Downloads/spark-3.1.2-bin-hadoop3.2
#修改PATH
export PATH=$JAVA_HOME/bin:$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin

2)、检验是否安装成功

source /etc/profile
spark-shell

若出现以下显示,表示安装成功

三、克隆虚拟机

1、克隆两台虚拟机
2、修改相关配置,以下在两台虚拟机分别执行

#分别修改两台虚拟机的ip地址,分别改为192.168.88.137、192.168.88.138
vim /etc/sysconfig/network-scripts/ifcfg-ens33
#分别修改两台虚拟机的主机名
hostnamectl set-hostname worker1
hostnamectl set-hostname worker2
四、启动spark

1)无密码访问

#三台机器分别执行以下命令
yum install openssh-server
#安装好了之后,三台分别执行以下命令,生成秘钥
ssh-keygen -t rsa 
#遇到中止的直接enter即可
#以下命令分别在三台机器执行,如在master执行
ssh-copy-id -i worker1
ssh-copy-id -i worker2

2)修改相关配置,修改master的相关配置

cd /root/Downloads/spark-3.1.2-bin-hadoop3.2/conf
#复制spark-env.sh.template为spark-env.sh
#上面这步我也不知道为啥,知道的麻烦说一下
#修改spark-env.sh
vim spark-env.sh
#添加如下内容
export JAVA_HOME=/var/local/jdk8
export SPARK_HOME=/root/Downloads/spark-3.1.2-bin-hadoop3.2
export SPARK_EXECUTOR_MEMORY=5G
export SPARK_EXECUTOR_cores=2
export SPARK_WORKER_CORES=2
#把配置复制到另外两台机器上
scp spark-env.sh worker1:/root/Downloads/spark-3.1.2-bin-hadoop3.2/conf
scp spark-env.sh worker2:/root/Downloads/spark-3.1.2-bin-hadoop3.2/conf
#修改workers
cp workers.template workers
vim workers
#把原先的localhost改为worker1、worker2
#把配置复制到另外两台机器上
scp workers worker1:/root/Downloads/spark-3.1.2-bin-hadoop3.2/conf
scp workers worker2:/root/Downloads/spark-3.1.2-bin-hadoop3.2/conf

3)启动spark集群

#cd到master主机conf目录下
sh start-all.sh

4)验证
在web访问192.168.88.136:8080,看到如下界面应该是部署成功了

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/300146.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号