如果使用root账户配置全部用户的环境变量,则修改配置文件:
/ect/profile
如果使用用户TJY配置环境变量,则修改配置文件:
cd /home/TJY vim .bashrc
增加如下内容:
#Hadoop export HADOOP_HOME=/home/TJY/hadoop-2.7.6 export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin
路径生成:
source .bashrc
检验:
hadoop
如下图所示,则安装成功:
二、横向配置进入$/HADOOP_HOME/etc/hadoop目录:
cd hadoop/hadoop-2.7.6/etc/hadoop
完成该目录下的四个配置文件:
a. 配置core-site.xmlvim core-site.xml
更改如下内容:
b.配置hdfs-site.xmlfs.defaultFS hdfs://westgisB040:8020
vim hdfs-site.xml
更改如下内容:
c.配置hadoop-env.shdfs.replication 3 dfs.namenode.name.dir /home/TJY/hdfs/name dfs.datanode.data.dir /home/TJY/hdfs/data
vim hadoop-env.sh
在文件最后增加JAVA_HOME:
export JAVA_HOME=/home/TJY/jdk/jdk1.8.0_271d. 配置slaves
vim slaves
删除文件中 localhost ,然后添加HDFS集群所有的DataNode机器名,每行一个,形式如下:
westgisB0XX westgisB0XX westgisB0XX westgisB0XX三、复制主节点配置到所有从节点
首先,将NameNode上相关文件拷贝到所有的DataNode节点,具体有:
- 环境变量配置文件.bashrc
- $/HADOOP_HOME/etc/hadoop目录下的四个配置文件
语句参考:
## 文件目录拷贝 scp -r /home/TJY/hdfs TJY@10.103.105.41:/home/TJY ## 安装目录拷贝 scp -r /home/TJY/hadoop/hadoop-2.7.6 TJY@10.103.105.41:/home/TJY/hadoop四、集群的初始化与启动
a.格式化HDFS
hadoop namenode -format
b.启动HDFS
$HADOOP_HOME/sbin/start-dfs.sh
c. 查看java进程
jps
d.停止HDFS
$HADOOP_HOME/sbin/stop-dfs.sh



