栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 其他 > Hadoop

聊聊Linux 安装Hadoop和Hbase

Hadoop 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

 环境介绍



三台CentOS7主机

192.168.122.101 hdfs1 192.168.122.102 hdfs2 192.168.122.103 hdfs3

其中hdfs1为主节点,其他为从节点。

安装配置三台都是一样的,做ssh免密码验证,如果只要在主节点hdfs1操作,只做hdfs1到其他节点信任即可。

如果三台都互相信任,这样子在哪台都可以操作是一样的。

修改内核参数

  1. vim /etc/sysctl.conf 

  1. net.ipv4.tcp_syn_retries = 1 net.ipv4.tcp_synack_retries = 1 
  2. net.ipv4.tcp_keepalive_time = 600 net.ipv4.tcp_keepalive_probes = 3 
  3. net.ipv4.tcp_keepalive_intvl =15 net.ipv4.tcp_retries2 = 5 
  4. net.ipv4.tcp_fin_timeout = 2 net.ipv4.tcp_max_tw_buckets = 65536 
  5. net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_tw_reuse = 1 
  6. net.ipv4.tcp_max_orphans = 32768 net.ipv4.tcp_syncookies = 1 
  7. net.ipv4.tcp_max_syn_backlog = 16384 net.ipv4.tcp_wmem = 8192 131072 16777216 
  8. net.ipv4.tcp_rmem = 32768 131072 16777216 net.ipv4.tcp_mem = 786432 1048576 1572864 
  9. net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.ip_conntrack_max = 65536 
  10. net.ipv4.netfilter.ip_conntrack_max=65536 net.ipv4.netfilter.ip_conntrack_tcp_timeout_established=180 
  11. net.core.somaxconn = 16384 net.core.netdev_max_backlog = 16384 
  12. vm.max_map_count = 262144 

 修改句柄限制

  1. vim /etc/security/limits.conf 

  1. * soft noproc 655360 * hard noproc 655360 
  2. * soft nofile 655360 * hard nofile 655360 

 设置主机名解析

在不同的节点,设置对应的主机名

  1. hostnamectl set-hostname hdfs1 

 

 添加hosts记录,也可以使用dns进行解析,比较灵活。

  1. vim /etc/hosts 

  1. 192.168.122.101   hdfs1 192.168.122.102   hdfs2 
  2. 192.168.122.103   hdfs3 

 创建用户和目录

  1. useradd  hadoop  passwd hadoop 
  2. mkdir -p  /apps/ mkdir -pv /data/hdfs/hadoop 
  3. mkdir -pv /data/hdfs/hbase chown hadoop.hadoop  /data/hadoop   /data/hbase 

 设置ssh免密码 

  1. su - hadoop  
  2. ssh-keygen  
  3. ssh-copy-id hadoop@hdfs1  
  4. ssh-copy-id hadoop@hdfs1  
  5. ssh-copy-id hadoop@hdfs1 

 ssh-keygen产生密钥的时候一直回车就可以完成创建

ssh-copy-id的时候需要输入hadoop的密码

下载jdk

下载地址:

www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

需要登陆之后才能下载

  1. tar zxvf jdk-8u271-linux-x64.tar.gz mv jdk-8u271-linux-x64 /apps/ 
  2. cd /apps/ ln -s jdk1.8.0_271 jdk 
  3. cd -  if grep '# modify by script' /etc/profile >>/dev/null 2>&1; then 
  4.     echo "alread set JAVA_HOME" else 
  5.     cp /etc/profile /etc/profile_bak$(date +%Y%m%d%H%M%S)     cat >>/etc/profile <# modify by script export JAVA_HOME=/apps/jdk 
  6. export PATH=${JAVA_HOME}/bin:/apps/hadoop/bin:/apps/hbase/bin:$PATH EOF 
  7. fi 

 下载hadoop和hbase

  1. mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz  
  2. archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz 

  1. tar zxvf hadoop-2.7.7.tar.gz tar zxvf hbase-1.3.5-bin.tar.gz 
  2. mv hadoop-2.7.7  hbase-1.3.5   /apps/ cd /apps 
  3. ln -s hadoop-2.7.7 hadoop ln -s hbase-1.3.5 hbase 
  4. cd -  

 配置hadoop

1.配置namenod

  1. vim /apps/hadoop/etc/hadoop/core-site.xml 

添加内容

  1.    
  2.              fs.defaultFS 
  3.         hdfs://hdfs1:9000      
  4.           
  5.         hadoop.tmp.dir         /data/hdfs/hadoop/tmp 
  6.       

 2.配置namenode和datanode

  1. vim /apps/hadoop/etc/hadoop/hdfs-site.xml 

在文件后面添加内容

  1.     
  2.              dfs.namenode.http-address 
  3.         hdfs1:50070      
  4. ​      
  5.              dfs.namenode.secondary.http-address 
  6.         hdfs2:50070      
  7. ​      
  8.              dfs.namenode.name.dir 
  9.         /data/hdfs/hadoop/name      
  10. ​      
  11.              dfs.replication 
  12.         2      
  13.           
  14.         dfs.datanode.data.dir         /data/hdfs/hadoop/datanode 
  15.      ​ 
  16.              dfs.permissions 
  17.         false      
  18.  

 3.配置环境变量

  1. vim /apps/hadoop/etc/hadoop/hadoo-env.sh 

修改JAVA_HOME

  1. export JAVA_HOME=/apps/jdk 

也可以根据具体的需求设置堆栈之类的参数

4.设置主节点

  1. vim /apps/hadoop/etc/hadoop/master 

添加主节点,一般使用主机名

  1. hdfs1 

5.设置从节点

  1. vim /apps/hadoop/etc/hadoop/slave 

添加从节点,一般使用主机名

  1. hdfs1  
  2. hdfs2  
  3. hdfs3 

 配置hbase

1.配置环境变量

  1. vim /apps/hbase/conf/hbase-env.sh 

修改JAVA_HOME变量即可 

  1. export JAVA_HOME=/apps/jdk 

也可以根据具体的需求设置堆栈之类的参数

2.设置hadoop和zookeeper等信息

  1. vim /apps/hbase/conf/hbase-site.xml 

添加内容

  1.   
  2.         hbase.rootdir      
  3.         hdfs://hdfs1:9000/hbase/hbase_db          
  4.   
  5.         hbase.cluster.distributed       
  6.         true  
  7.          hbase.zookeeper.quorum 
  8.                  hdfs1,hdfs2,hdfs3 
  9.   
  10.                  hbase.zookeeper.property.dataDir 
  11.         /data/hdfs/hbase/zookeeper  
  12.           
  13.         hbase.master.info.port         16610 
  14.   
  1. vim /apps/hbase/conf/regionservers 

  1. hdfs1 hdfs2 
  2. hdfs3 

 启动测试

  1. su - hadoop  /apps/hadoop/sbin/start-all.sh 
  2. /apps/hbase/bin/start-hbase.sh 

 总结

这些步骤只是简单的部署,具体应用需要经过测试并做出对应的调整。

 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/796209.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号