tar -zxf spark-2.4.8-bin-hadoop2.6.tgz -C /usr/
改名字
cd /usr mv spark-2.4.8-bin-hadoop2.6/ spark2.修改配置文件
进入spark安装目录下conf目录中
复制模板
cp slaves.template slaves cp spark-defaults.conf.template spark-defaults.conf cp spark-env.sh.template spark-env.sh
vi slaves
删除原有内容。写入
slave1 slave2
vi spark-defaults.conf
添加
spark.master spark://master:7077 spark.eventLog.enabled true spark.eventLog.dir hdfs://master:8020/spark-logs spark.history.fs.logDirectory hdfs://master:8020/spark-logs
vi spark-env.sh
添加
JAVA_HOME=/usr/jdk HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop SPARK_MASTER_IP=master SPARK_MASTER_PORT=7077 SPARK_WORKER_MEMORY=512m SPARK_WORKER_CORES=1 SPARK_EXECUTOR_MEMORY=512m SPARK_EXECUTOR_CORES=1 SPARK_WORKER_INSTANCES=1
环境变量
vi /etc/profile
#spark export SPARK_HOME=/usr/spark export PATH=$PATH:$SPARK_HOME/bin
source /etc/profile3. 在 HDFS 中新建目录
hadoop fs -mkdir /spark-logs4. 分发文件
spark
scp -r /usr/spark slave1:/usr/ scp -r /usr/spark slave2:/usr/
环境变量
scp /etc/profile slave1:/etc scp /etc/profile slave2:/etc
source /etc/profile5.启动
cd /usr/spark/sbin ./start-all.sh6.查看
jps
master:Master slave:Worker
web
192.168.26.148:8080



