- HDFS分布式集群搭建
- 一、Hadoop下载
- 二、通过secureCRT把安装包传到hadoop用户下的App目录
- 三、Hadoop解压
- 四、删掉压缩包(节省空间)
- 五、创建软链接
- 六、修改配置文件
- 1、配置core-site.xml
- 2、配置hdfs-site.xml文件
- 3、配置workers
- 4、配置hadoop-env.sh
- 七、Hadoop安装目录同步其他节点
- 八、各个节点分别创建软链接
- 九、创建Hadoop集群规划目录
地址:https://hadoop.apache.org/releases.html
二、通过secureCRT把安装包传到hadoop用户下的App目录 三、Hadoop解压通过tar -zxvf命令对Hadoop安装包进行解压即可。
[hadoop@hadoop60 app]$ tar -zxvf hadoop-3.2.1.tar.gz四、删掉压缩包(节省空间)
[hadoop@hadoop60 app]$ rm -rf hadoop-3.2.1.tar.gz五、创建软链接
解释:为了方便版本的更换和学习使用,可以创建hadoop软链接指向hadoop真实安装路径。可以使用如下命令:ln -s hadoop-xxx hadoop
[hadoop@hadoop60 app]$ ln -s hadoop-3.2.1 hadoop六、修改配置文件
注:配置文件位置在:[hadoop@hadoop60 ~]$ cd app/hadoop/etc/hadoop/
1、配置core-site.xml直接导入,注意修改成自己电脑起的主机名
2、配置hdfs-site.xml文件直接导入,注意修改成自己电脑起的hostname
3、配置workers注:写主机名
hadoop60
hadoop61
hadoop62
[hadoop@hadoop60 hadoop]$ vi workers hadoop60 hadoop61 hadoop624、配置hadoop-env.sh
注:执行vi hadoop-env.sh 找到JAVA_HOME、HADOOP_HOME这两个补好配置,把注释#去掉
export JAVA_HOME=/home/hadoop/app/jdk
export HADOOP_HOME=/home/hadoop/app/hadoop
[hadoop@hadoop60 hadoop]$ vi hadoop-env.sh export JAVA_HOME=/home/hadoop/app/jdk export HADOOP_HOME=/home/hadoop/app/hadoop七、Hadoop安装目录同步其他节点
命令:deploy.sh hadoop-3.2.1 /home/hadoop/app/ slave
将hadoop安装目录整体同步到其他节点
[hadoop@hadoop60 app]$ deploy.sh hadoop-3.2.1 /home/hadoop/app/ slave八、各个节点分别创建软链接
命令:ln -s hadoop-3.2.1 hadoop
[hadoop@hadoop61 app]$ ln -s hadoop-3.2.1 hadoop [hadoop@hadoop62 app]$ ln -s hadoop-3.2.1 hadoop九、创建Hadoop集群规划目录
命令:runRemoteCmd.sh “mkdir -p /home/hadoop/data” all
注:如果之前创建了,就不用创建了
[hadoop@hadoop60 ~]$ runRemoteCmd.sh "mkdir -p /home/hadoop/data" all



