一.集群环境搭建
环境准备
(1) 服务器配置
| IP | 主机名 | 环境配置 | 安装 |
| 10.100.100.42 | node01 | 关闭防火墙和selinux,host映射,时钟同步 | JDK,NameNode,ResourceManager,Zookeeper |
| 10.100.100.43 | node02 | 关闭防火墙和selinux,host映射,时钟同步 | JDK,DataNode,NodeManager,Zookeeper |
| 10.100.100.44 | node03 | 关闭防火墙和selinux,host映射,时钟同步 | JDK,DataNode,NodeManager,Zookeeper |
(2) 修改主机名与主机名映射
(3) 关闭防火墙和SELinux
(4) SSH免密登录
(5) 时钟同步
(6) 集群机器安装JDK(1.8)
二.Zookeeper集群环境搭建
(1) 集群规划
| IP | 主机名 | MyId |
| 10.100.100.42 | Node01 | 1 |
| 10.100.100.43 | Node02 | 2 |
| 10.100.100.44 | Node03 | 3 |
(2) 下载Zookeeper(3.4.9)安装包
(3) 解压文件
(4) 修改配置文件
(5) 创建myid配置文件
(6) 安装包分发到node02 node03
(7) 启动集群中每台机器的zookeeper服务
三.Hadoop集群环境搭建
(1) 集群规划
| 服务器IP | 10.100.100.42 | 10.100.100.43 | 10.100.100.44 |
| 主机名 | Node01 | Node02 | Node03 |
| NameNode | 是 | 否 | 否 |
| SecondaryNameNode | 是 | 否 | 否 |
| dataNode | 是 | 是 | 是 |
| ResourceManager | 是 | 否 | 否 |
| NodeManager | 是 | 是 | 是 |
(2) 安装包下载(Hadoop2.7.5)
(3) 文件上传及解压 详细操作见上面类似的操作
(4) 修改配置文件
修改hdfs-site.xml 文件路径 /export/soft/hadoop-2.7.5/etc/hadoop/hdfs-site.xml 修改内容 fs.default.name hdfs://192.168.1.200:8020 hadoop.tmp.dir /export/soft/hadoop-2.7.5/hadoopDatas/tempDatas io.file.buffer.size 4096 fs.trash.interval 10080 修改hadoop-env.sh 主要是修改jdk的路径 /export/soft/jdk1.8.0_144 修改mapred-site.xml 修改内容 dfs.namenode.secondary.http-address node01:50090 dfs.namenode.http-address node01:50070 dfs.namenode.name.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas2 dfs.datanode.data.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas2 dfs.namenode.edits.dir file:///export/soft/hadoop-2.7.5/hadoopDatas/nn/edits dfs.namenode.checkpoint.dir file:///export/soft/hadoop-2.9.2/hadoopDatas/snn/name dfs.namenode.checkpoint.edits.dir file:///export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits dfs.replication 3 dfs.permissions false dfs.blocksize 134217728 mapreduce.job.ubertask.enable true mapreduce.jobhistory.address node01:10020 mapreduce.jobhistory.webapp.address node01:19888
修改yarn-site.xml,修改内容
yarn.resourcemananger.hostname node01 yarn.nodemanager.aux-services mapreduce_shuffle yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 yarn.nodemanager.resource.memory-mb 20480 yarn.scheduler.minimum-allocation-mb 2048 yarn.nodemanager.vmem-pmem-ratio 2.1
export JAVA_HOME=/export/soft/jdk1.8.0_144
修改slaves 改文件主要是配置丛级关系 修改内容如下:Node01 Node02 Node03
mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/tempDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas2 mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas2 mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/nn/edits mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/snn/name mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits
scp -r 安装包路径 node02:$PWD
scp -r 安装包路径 node03:$PWD
vi /etc/profile
export HADOOP_HOME=/ export/soft/hadoop-2.9.2
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source /etc/profile
cd /export/soft/hadoop-2.7.5/
bin/hdfs/ namenode -format(第一次启动才执行)
sbin/start-dfs.sh Sbin/start-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver
网页查看hdfs http://node01:50070/explorer.html#/
网页查看yarn集群 http://node01:8088/cluster
网页查看历史完成的任务 http://node01:19888/jobhistory
四.Hbase(hadoop数据库)安装
(1)安装包下载并上传(hbase 2.1.0)
下载路径 http://archive.apache.org/dist/hbase 软件版本 2.1.0
(2)修改hbase-env.sh文件
export JAVA_HOME=/export/soft/jdk1.8.0_144
export Hbase_MANAGES_ZK=false
(3)修改hbase-site.xml文件
hbase.rootdir hdfs://node01:8020/hbase hbase.cluster.distributed true hbase.zookeeper.quorum node01,node02,node03 hbase.zookeeper.property.dataDir /export/soft/zookeeper-3.4.9/zkdatas hbase.tmp.dir ./tmp hbase.unsafe.stream.capability.enforce false
(4)配置环境变量文件
export Hbase_HOME=/export/soft/hbase-2.4.0
export PATH=:$Hbase_HOME/bin:$Hbase_HOME/sbin:$PATH
(5)拷贝依赖库
cp $Hbase_HOME/lib/client-facing-thirdparty/htrace-core4-4.2.0-incubating.jar $Hbase_HOME/lib
(6)修改regionservers文件
(7)安装包分发
scp -r hbase-2.4.0/ node02:$PWD
scp -r hbase-2.4.0/ node03:$PWD
(8)修改node02 node03的环境变量并生效
(9)启动Hbase
首先要保证zookeeper集群和hadoop集群已经启动。然后在主节点上启动Hbase
进入到Hbase的bin目录,执行start-hbase.sh
(10)验证Hbase是否启动成功
(11)Hbase网页界面
Http://10.100.100.42:16010
五.Phoenix(5.0.0)插件安装
(1)文件下载
文件下载地址 Http://phoenix.apache.org/download.html
(2)文件上传并解压 tar -xvf phoenix-hbase-2.4.0-5.1.2-bin.tar.gz -C /export/soft
(3)拷贝Jar包到Hbase目录
cp /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/phoenix-*.jar /export/soft/hbase-2.4.0/lib/
(4)分发Jar包到Hbase的其他节点上
scp phoenix-*.jar node02:$PWD
scp phoenix-*.jar node03:$PWD
(5)修改配置文件
修改hbase的配置文件 cd /export/soft/hbase-2.4.0/conf/ 修改hbase-site.xml文件phoenix.schema.isNamespaceMappingEnabled true hbase.regionserver.wal.codec org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec
(6)分发配置文件
scp hbase-site.xml node02:$PWD
scp hbase-site.xml node03:$PWD
(7)拷贝配置文件到phoenix目录中
cp hbase-site.xml /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/bin/
(8)重启Hbase服务
新集群 zookeeper3.4.9 hadoop2.7.5 hbase 2.1.0 phoenix (5.0.0-Hbase2.0)
检查hadoop2.7.5对本地库的支持
Bin/hadoop/ checknative SpringBoot 整合Hadoop
客户端在windows环境下需要hadoop.dll
上述新集群



