栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Spark3的详细安装步骤

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Spark3的详细安装步骤

文章目录
  • 前言
  • 一、事先准备
  • 二、上传安装包到linux上
  • 三、解压安装包
  • 四、配置文件
    • 1.spark-env.sh.template
    • 2.workers.template
  • 五、分发给其他结点
  • 六、配置全局环境变量
  • 七、启动集群
  • 八、查看进程
  • 九、网页访问
  • 十、验证
  • 总结


前言

本文记录的是spark-3.1.2的安装详细步骤,建议收藏起来悄悄卷~~


一、事先准备
  1. 集群机器相互同步时间
  2. 机器之间实现免密登录
  3. 所有机器都关闭防火墙
  4. 所有机器都需要安装JDK1.8
  5. Hadoop环境最好是在3.2
二、上传安装包到linux上

安装包名:spark-3.1.2-bin-hadoop3.2.tgz

我是上传到了softwares目录下

三、解压安装包

先cd进softwares目录下,然后将安装包解压至/usr/local/路径下

    [root@cq01 softwares]# tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz -C /usr/local/

进入/usr/local下,对spark-3.1.2-bin-hadoop3.2.tgz进行重命名为spark

    [root@cq01 softwares]# cd /usr/local/
    [root@cq01 local]# mv spark-3.1.2-bin-hadoop3.2/ spark
四、配置文件

从安装路径进入到conf下,进行配置

    [root@cq01 local]# cd /usr/local/spark/conf/
1.spark-env.sh.template

重命名为spark-env.sh

[root@cq01 conf]# mv spark-env.sh.template spark-env.sh

编辑spark-env.sh文件

    [root@cq01 conf]# vi spark-env.sh

在文档末尾添加上jdk的安装路径

2.workers.template

重命名为workers

    [root@cq01 conf]# mv workers.template workers

根据自己的节点来添加从节点(注意不要写Master节点进去

    [root@cq01 conf]# vi workers 

五、分发给其他结点

先退回到local路径下

    [root@cq01 conf]# cd /usr/local/

将配置好的内容分发给其他节点(根据自己集群机器的数量来分发)

    [root@cq01 local]# scp -r ./spark/ cq02:$PWD
    [root@cq01 local]# scp -r ./spark/ cq03:$PWD
六、配置全局环境变量

配置好全局环境变量可以在任意位置使用bin下的脚本。注意顺便把其他几台的环境变量也配一下。

    [root@cq01 local]# vi /etc/profile
    #spark environment
    export SPARK_HOME=/usr/local/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

重新启动环境变量

    [root@cq01 local]# source /etc/profile
七、启动集群

进入安装目录下的sbin目录

    [root@cq01 spark]# cd /usr/local/spark/sbin/

启动

    [root@cq01 sbin]# ./start-all.sh

出现以下提示则表示启动完成

八、查看进程

使用jps命令查看进程。我这里是写了一个查看集群所有机器的进程。

    [root@cq01 sbin]# jps-cluster.sh 

出现以下的进程表示已经启动成功

九、网页访问

spark3.1.2提供的webUI界面端和tomcat的端口一样8080,所以我们可以通过输入网址http://虚拟机Master的IP地址:8080来访问,然后就会出现下图界面

十、验证

进入到spark的bin目录下,执行以下命令

    [root@cq01 bin]# ./run-example SparkPi 5 --master local[1]

出现以下界面,则表示以及成功运行


总结

至此就已经完成了spark-3.1.2的安装。如果有什么问题,欢迎一起交流。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/843161.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号