连接三个节点
添加两个服务器域名
关闭和禁用三个服务器的防火墙
关闭三个虚拟机的安全机制
三个虚拟金 下载lrzsz
下载jdk压缩包并解压
配置jdk环境变量
查看jdk版本
下载hadoop压缩包并解压
配置hadoop环境变量
启动hdfs
查看三个虚拟机的节点
启动YARN
再查看三个虚拟机的节点
查看hadoop集群胡web界面
停止hadoop服务
上传spark安装包到master虚拟机并配置环境
启动spark

连接三个节点
添加两个服务器域名
关闭和禁用三个服务器的防火墙
关闭三个虚拟机的安全机制
三个虚拟金 下载lrzsz
下载jdk压缩包并解压
配置jdk环境变量
查看jdk版本
下载hadoop压缩包并解压
配置hadoop环境变量
启动hdfs
查看三个虚拟机的节点
启动YARN
再查看三个虚拟机的节点
查看hadoop集群胡web界面
停止hadoop服务
上传spark安装包到master虚拟机并配置环境
启动spark