栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

超详细Spark开发环境搭建,学就会

超详细Spark开发环境搭建,学就会

点击下载spark安装包

本次spark安装包的版本是spark-3.0.0

一、搭建spark环境

1.进入到spark目录下进行解压至/root下

[root@master wenjian]# tar -zxvf spark-3.0.0-bin-hadoop2.7.tgz -C /root/

2.进入到/root目录下修改spark名称(不然名字太长了)

[root@master ~]# mv spark-3.0.0-bin-hadoop2.7/ spark

3.进入到spark的配置文件下

[root@master ~]# cd spark/conf/

4.复制配置文件,保留它的源文件

[root@master conf]# cp spark-env.sh.template spark-env.sh

5.对spark-env.sh文件添加环境变量

[root@master conf]# vim spark-env.sh

在spark-env.sh文件的最后添加环境

export JAVA_HOME=/root/jdk
export SPARK_DIST_CLASSPATH=$(/root/hadoop classpath)

6.在root用户下添加环境变量,并重新进行环境编译

[root@master conf]# vim /root/.bash_profile 

[root@master conf]# source /root/.bash_profile 

 7.直接运行spark进入spark里

[root@master conf]# spark-shell 

启动成功!!!


可以日常关注一下,会经常出一些用的上的东西,可以直接在主页搜取!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/443513.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号