栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 系统运维 > 运维 > Linux

Spark开发环境的搭建与配置(基于Linux)

Linux 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Spark开发环境的搭建与配置(基于Linux)

目录

一、部署环境安装说明

二、Spark安装

1.Spark下载

2.解压Spark安装包 

3.配置环境 

 4.安装scala(scala要在同一目录下)


一、部署环境安装说明

部署环境VMware+Ubuntu18+jdk8+Hadoop3.3.1

关于hadoop的安装和scala的安装参考:

hadoop的安装:

(5条消息) Hadoop开发环境的搭建与配置(基于Linux)_Drajor的博客-CSDN博客

scala的安装:

(5条消息) Linux虚拟机上的Scala安装_Drajor的博客-CSDN博客_虚拟机linux安装scala


二、Spark安装


1.Spark下载

Spark可以从官网(Apache Spark) 下载。访问国外的链接网速较慢,我们改从清华大学开源软件镜像下载。 下载地址

https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.1.3/spark-3.1.3-bin-hadoop3.2.tgz

如果你要在自己的Linux系统中安装,那么还是需要下载的。我们可以选择以下两种方式之一下载:

先下载到Windows,然后从Windows中将文件传入到虚拟机中。
在Linux的终端下输入
wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.1.3/spark-3.1.3-bin-hadoop3.2.tgz
下载。


2.解压Spark安装包 

将目录转换到下载Spark的目录中,查看安装情况

解压Spark

tar -zxvf spark-3.1.3-bin-hadoop3.2.tgz -C/usr/local

的压缩包到/usr/local目录下

名字过于复杂,不便于调用, 切换到/usr/local目录下修改Spark文件夹的名字:

mv spark-3.1.3-bin-hadoop3.2/ spark

查看Spark的权限

将Spark的权限改为用户名权限 

sudo chown -R hadoop:hadoop ./spark

 


3.配置环境 

 进入spark界面

cd spark/

将spark-env.sh.template重命名为spark-env.sh。

cp ./conf/spark-env.sh.template ./conf/spark-env.sh

 编辑spark-env.sh,在末尾添加这行消息并保存

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

验证一下是否安装成功

bin/run-example SparkPi

 执行时会输出很多屏幕消息,不容易找到最终的输出结果,为了从大量的输出消息中快速找到我们想要的执行结果,可以通过grep命令来进行过滤

bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

 

如上图,说明运行成功 

启动spark

bin/spark-shell

 启动成功。

继续进行配置,编辑这个文件

vim ~/.bash_profile

添加

export TERM=xterm.color

 使环境变量生效

source ~/.bash_profile

 启动spark

bin/spark-shell

 运行成功


 4.安装scala(scala要在同一目录下)
sudo apt-get install scala     

 安装完成后调用

scalac
scala

 如下图,则安装成功

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/826219.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号