栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

centos上搭建运行spark的环境

centos上搭建运行spark的环境

由《Spark快速大数据分析》:使用Spark的第一步是下载和解压缩,所以我首先下载并解压了spark-2.4.0-bin-hadoop2.7.tgz。

然后尝试使用Spark中Python的shell。进入Spark目录,然后输入:

bin/pyspark

提示:JAVA_HOME is not set。

我用的是腾讯云服务器,估计默认没有安装JAVA,执行如下命令安装:

yum install -y java-1.8.0-openjdk
yum -y install java-1.8.0-openjdk-devel

java环境安装完成后再次执行bin/pyspark,这次提示:python:未找到命令。

因为spark-2.4是基于python2的,而我这个服务器默认是python3,所以需要把python2也装上:

sudo dnf install python2

然后再把python2设为默认环境就可以了:

接着,书上推荐使用IPython,如下安装:

sudo pip install ipython

启动IPython的命令:

PYSPARK_DRIVER_PYTHON=ipython bin/pyspark

ok,环境搭建完毕。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/728861.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号