栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

MacOS上搭建Spark环境

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

MacOS上搭建Spark环境

安装JDK

没有安装的直接去Oracl官网下载相应的JDK版本安装即可。
安装过JDK,可以使用下面命令查看当前安装了哪些JDK版本。

/usr/libexec/java_home -V

下面是笔者机器上安装的JDK版本,已经当前正在使用的版本。

$ /usr/libexec/java_home -V
Matching Java Virtual Machines (2):
    11.0.14 (x86_64) "Oracle Corporation" - "Java SE 11.0.14" /Library/Java/JavaVirtualMachines/jdk-11.0.14.jdk/Contents/Home
    1.8.0_301 (x86_64) "Oracle Corporation" - "Java SE 8" /Library/Java/JavaVirtualMachines/jdk1.8.0_301.jdk/Contents/Home
/Library/Java/JavaVirtualMachines/jdk-11.0.14.jdk/Contents/Home
ssh免密登录
# 生成没有秘钥的public key,可以使用rsa,也可以使用ed25519
ssh-keygen -t rsa -b 4096 -P '' -f ~/.ssh/id_rsa
ssh-keygen -t ed25519 -P '' -f ~/.ssh/id_ed25519
# 将public key拷贝到authorized_keys
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
# 修改authorized_key的权限
chmod og-wx ~/.ssh/authorized_keys 

Bug1:ssh: connect to host localhost port 22: Connection refused
Solution:选择系统偏好设置->共享->点击远程登录然后再输入命令ssh localhost发现已经解决问题

安装配置Hadoop

可以使用brew install hadoop,也可以直接下载hadoop并解压到指定目录。
brew安装的目录为:/usr/local/Cellar/hadoop/。

修改hadoop-env.sh

进入Hadoop的安装目录下的配置目录etc/hadoop,修改hadoop-env.sh的内容。

export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true -Djava.security.krb5.realm= -Djava.security.krb5.kdc="
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk-11.0.14.jdk/Contents/Home
export HADOOP_CONF_DIR=$HOME/hadoop_spark/hadoop-3.2.0/etc/hadoop
配置hdfs地址和端口

修改core-site.xml文件,如下:


  
    hadoop.tmp.dir
    $HOME/hadoop_spark/hadoop-3.2.0/hdfs/tmp
    A base for other temporary directories.
  
  
     fs.default.name
     hdfs://localhost:8020
  

配置MapReduce中jobtracker的地址和端口

找到mapred-site.xml.template文件,将文件重命名为mapred-site.xml,并修改内容。


   
     mapred.job.tracker
     localhost:8021
   

修改hdfs备份数

相同目录下,打开hdfs-site.xml文件,修改内容。


  
    dfs.replication
    1
  

格式化HDFS

初始化文件系统,打开终端输入:hdfs namenode -format
如果出现下面的情况代表成功.

配置Hadoop环境变量

在.bashrc中添加下面的配置

export HADOOP_HOME=$HOME/hadoop_spark/hadoop-3.2.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
启动关闭Hadoop服务
# 启动HDSF服务
./start-dfs.sh  
# 关闭HDSF服务
./stop-dfs.sh
安装Scala

可以直接使用brew install scala安装,并修改环境变量。

export SCALA_HOME=/usr/local/Cellar/scala/2.13.8
export PATH=$PATH:$SCALA_HOME/bin
安装Spark

直接从官网下载相应版本,解压到本地目录,并配置系统变量。下面是完整的配置:

export HADOOP_HOME=$HOME/hadoop_spark/hadoop-3.2.0
export SPARK_HOME=$HOME/hadoop_spark/spark-3.2.1-bin-hadoop3.2
export SCALA_HOME=/usr/local/Cellar/scala/2.13.8
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
使用Spark

在终端,使用spark-shell启动:

使用pyspark启动:

使用浏览器访问:http://localhost:4040/

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/889219.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号