栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Spark集群模式的搭建

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Spark集群模式的搭建

追风赶月莫停留,平芜尽处是春山。

文章目录
  • 追风赶月莫停留,平芜尽处是春山。
  • 环境
  • Spark 完全分布式模式的搭建
      • 一、下载安装包,解压到合适位置:
      • 二、配置相关的文件:
      • 三、将Spark分发到其他节点:
      • 四、启动Spark:
      • 五、查看Spark是否启动成功

环境
  • VMware 12.0.1
  • JDK 1.8.0
  • Hadoop 2.8.5
  • Python 3.6+
Spark 完全分布式模式的搭建

注意:若没有配置Hadoop环境请先配置Hadoop环境;若Python的版本不是3.6及以上的请先配置3.6以上的版本。

一、下载安装包,解压到合适位置:
  1. 将压缩包 spark-3.0.3-bin-hadoop2.7.tgz,通过上传软件上传至/opt/softwares目录;
    解压软件包并移动至/opt/modules/
二、配置相关的文件:
  1. 配置spark-env.sh,该文件位于./conf目录下,需将spark-env.sh.template复制一份改名为spark-env.sh
    在该文件里追加:
    # 配置java环境变量
    export JAVA_HOME=/opt/modules/jdk1.8.0_171
    # 配置master的主机名
    export SPARK_MASTER_HOST=centos01
    # 配置端口号
    export SPARK_MASTER_PORT=7077
    
  2. 配置slaves,该文件位于./conf目录下,需将slaves.template复制一份改名为slaves
    在该文件里追加:
    centos02
    centos03
    
    分别为两个work节点的主机名。
三、将Spark分发到其他节点:
  1. 运行以下命令:
    scp -r /opt/modules/spark-3.0.3 root@centos02:/opt/modules
    scp -r /opt/modules/spark-3.0.3 root@centos03:/opt/modules
    
四、启动Spark:
$sbin/start-all.sh

在spark-3.0.3/sbin目录下的start-all.sh文件 。

五、查看Spark是否启动成功
  1. 输入jps命令,在主节点上出现master,从节点上出现work即为启动成功。
  2. 进入spark/bin目录下,执行./pyspark若出现欢迎界面即为启动成功
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/283535.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号