栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

安装SCALA SPARK

安装SCALA SPARK

解压缩

tar -xvf scala.tar.gz -C /etc/hadoop

修改文件名

mv sacla~ sacla

配置环境变量

vim /etc/profile

export SCALA_HOME=/etc/hadoop/scala

export PATH=$PATH:$PATH:SACLA_HOME/bin

刷新

source /etc/profile

检测版本

sacla -version

 

解压缩spark

tar -xvf spark.tar.gz -C /etc/hadoop

修改文件名

mv spark~ spark

配置环境变量

vim /etc/profile

export SACLA_HOME=/etc/hadoop/spark

export PATH=$PATH:$PATH:SPARK_HOME/bin

刷新

在$SPARK_HOME/conf/目录下复制spark-env.sh.template成spark-env.sh

cp spark-env.sh.template spark-env.sh

修改$SPARK_HOME/conf/spark-env.sh,添加如下内容:

vim ~

export SCALA_HOME=/etc/hadoop/scala

export JAVA_HOME=/etc/hadoop/java

export HADOOP_HOME=/etc/hadoop/hadoop

export SPARK_WORKER_MEMORY=1g

export HADOOP_CONF_DIR=/etc/hadoop/hadoop/etc/hadoop

export SPARK_MASTER_IP=192.168.3.120

export SPARK_HOME=/etc/hadoop/spark

 

cp slaves.template slaves

vim slaves

hadoop01 

hadoop02  

hadoop03

将配置好的环境拷贝到Slaver1和Slaver2节点。

scp -r /etc/hadoop/scala hadoop02:/etc/hadoop

scp -r /etc/hadoop/scala hadoop03:/etc/hadoop

scp -r /etc/hadoop/spark hadoop02:/etc/hadoop

scp -r /etc/hadoop/spark hadoop03:/etc/hadoop

scp -r /etc/profile hadoop02:/etc/profile

scp -r /etc/profile hadoop03:/etc/profile

 

在每个节点上刷新环境配置: source /etc/profile。

先启动hadoop

在hadoop01上启动spark

cd /etc/hadoop/spark

ls

cd sbin

./start-all.sh

bin

./spark-shell

 

 

 

 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/780538.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号