栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Spark cluster 安装

Spark cluster 安装

使用 Ubuntu 机器做主服务

Master
192.168.50.15 (Ubuntu)

Worker 1
192.168.50.15 (Ubuntu)
Worker 2
192.168.50.16 (Windows 10)

先安装 JDK 和下载 Apache Spark

sudo apt-get install openjdk-11-jdk
wget https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
tar xvf spark-3.1.2-bin-hadoop3.2.tgz
sudo mv spark-3.1.2-bin-hadoop3.2 /opt/spark

设置 SPARK_HOME

vi ~/.profile

export SPARK_HOME=/opt/spark

source ~/.profile

设置 服务器 IP

cd /opt/spark/conf
cp spark-env.sh.template spark-env.sh

SPARK_LOCAL_IP=192.168.50.15
SPARK_MASTER_HOST=192.168.50.15

起动 Master 和 Worker 1

sudo /opt/spark/sbin/start-master.sh
sudo /opt/spark/sbin/start-worker.sh spark://192.168.50.15:7077

Windows 下载 Apache Spark 和 Hadoop winutils.exe 放到 e.g. D:app

https://archive.apache.org/dist/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
https://github.com/cdarlint/winutils/tree/master/hadoop-3.2.2/bin

设置环境变量 SPARK_HOME, HADOOP_HOME 和 PATH

SPARK_HOME
D:appspark
PATH add %SPARK_HOME%bin


HADOOP_HOME
D:apphadoop
PATH add %HADOOP_HOME%bin

打开命令字元

spark-class org.apache.spark.deploy.worker.Worker spark://192.168.50.15:7077

查看 Spark Master UI

使用 Ctrl-C 来停止 Windows Worker 2

停止 Worker 1 和 Master

sudo /opt/spark/sbin/stop-worker.sh
sudo /opt/spark/sbin/stop-master.sh

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/285905.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号