栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark安装配置

spark安装配置

一、下载scala

1.下载

2.root命令下输入(或者+sudo)

tar -zxvf scala-2.10.7.tgz -C /usr/hadoop/

3.配置

vim /etc/profile

输入:

export SCALA_HOME=/usr/hadoop/scala-2.10.7
export PATH=$PATH:$SCALA_HOME/bin

 保存,退出

4.source  /etc/profile (root用户或+sudo)

成功截图

二、安装spark

1.解压

(root用户)

tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz -C /usr/hadoop/spark

下载后解压,到/usr/hadoop/spark目录下

2.配置环境

1)vim /etc/profile

export SPARK_HOME=/usr/hadoop/spark/spark-2.4.3-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

2) spark-env.sh配置

cd /usr/hadoop/spark/spark-2.4.3-bin-hadoop2.7/conf

vi spark-env.sh

添加代码:

export JAVA_HOME=/usr/hadoop/jdk1.8.0_201
export SCALA_HOME=/usr/hadoop/scala/scala-2.13.0/
export HADOOP_HOME=/usr/hadoop/hadoop-2.8.5
export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.8.5/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_MASTER_HOST=master
export SPARK_LOCAL_IP=master
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=2
export SPARK_HOME=/usr/hadoop/spark/spark-2.4.3-bin-hadoop2.7
export SPARK_DIST_CLASSPATH=$(/usr/hadoop/hadoop-2.8.5/bin/hadoop classpath)

注意:export SPARK_LOCAL_IP=master 在子节点中需要将master改为子节点的名称

3)slaves配置

slave1

slave2

4) 复制到其他节点
在master节点上安装配置完成Spark后,将整个spark目录拷贝到其他节点,并在各个节点上更新/etc/profile文件中的环境变量

5) 测试Spark

在master节点启动Hadoop集群

[root@master /hadoop-2.8.5]  # sbin/start-all.sh

在master节点启动spark

[root@master spark-2.4.3-bin-hadoop2.7]# sbin/start-all.sh 

master:

slave:

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/342363.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号