1、从Linux中获取jdk路径
echo $JAVA_HOME
配置hadoop-env.sh
cd /opt/module/hadoop-3.1.3/etc/hadoop/ vi hadoop-env.sh
将配置文件修改如下保存并退出
配置core-site.xmlvi core-site.xml
将下列命令粘贴进去
二、HDFS文件配置fs.defaultFS hdfs://hadoop100:9820 hadoop.data.dir /opt/module/hadoop-3.1.3/data
1、配置hdfs-site.xml
vi hdfs-site.xml
将下列文件复制粘贴上去保存并退出
三、YARN文件配置dfs.namenode.name.dir file://${hadoop.data.dir}/name dfs.datanode.data.dir file://${hadoop.data.dir}/data dfs.namenode.checkpoint.dir file://${hadoop.data.dir}/namesecondary dfs.client.datanode-restart.timeout 30 dfs.namenode.http-address hadoop100:9870 dfs.namenode.secondary.http-address hadoop102:9868
1、配置yarn-site.xml
vi yarn-site.xml
将下列代码复制粘贴进去保存并退出
五 、分布式集群格式化mapreduce.framework.name yarn
1、格式化之前要把要把三个服务器上的hadoop安装目录下的 data目录和logs目录都删掉。
hdfs namenode -format六、启动集群(单起)
Hadoop100启动namendo、datanode、nodemanager
Hadoop101启动resourcemanager、datanode、nodemanager
Hadoop102启动resourcemanager、datanode、nodemanager
hdfs --daemon start namenode hdfs --daemon start datanode yarn--daemon start resourcemanager yarn --daemon start nodemanager七、群起
Hadoop100
start-all.sh



