下载链接:链接
将hadoop 到自己想要解压的路径下(这我解压到D盘下)
修改配置文件
- 进入etc/hadoop/下修改 core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml
hdfs-site.xmlfs.default.name hdfs://localhost:9000 hadoop.tmp.dir /D:/hadoop-3.3.2/data/tmp
mapred-site.xmldfs.replication 1 dfs.namenode.name.dir /D:/hadoop-3.3.2/data/namenode dfs.datanode.data.dir /D:/hadoop-3.3.2/data/datanode dfs.permissions false
yarn-site.xmlmapreduce.framework.name yarn
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.auxservices.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.nodemanager.resource.memory-mb 1024 yarn.nodemanager.resource.cpu-vcores 1
- 修改 workers 为 localhost修改hadoop-env.cmd
替换lib目录下的文件set JAVA_HOME=D:javajdkjdk11
如果您双击 winutils.exe 文件闪退,不报错,就说明没有任何问题
打开命令行窗口
输入:hadoop namenode -format 看到成功的单词即可
进入hadoop的sbin目录执行start-all.cmd 没有报错后进入hadoop下的bin目录执行
看到这三个进程即可
hadoop3.2以上的版本 web访问端口从原来的 50070 改为了 9870
http://localhost:9870/
http://localhost:8088/
至此hadoop3.2.2版本 已完成



