栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

2021SC@SDUSC HBase项目分析:安装、配置与分工

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

2021SC@SDUSC HBase项目分析:安装、配置与分工

2021SC@SDUSC

目录

Hbase概述

Hbase集群安装

Hadoop安装与配置

ZooKeeper安装与配置

Hbase安装与配置

 Hbase源码下载

组内分工

2021SC@SDUSC

Hbase概述

Hbase 是一种分布式、高可靠性、高性能、面向列、可伸缩的 NoSQL 数据库。Hadoop HDFS为Hbase提供了高可靠性的底层存储支持,Hadoop MapReduce为Hbase提供了高性能的计算能力,Zookeeper为Hbase提供了稳定服务和failover机制。

Hbase集群安装

Hadoop安装与配置
  1. 创建虚拟机hadoop102,并完成相应配置
  2. 安装epel-release
    yum install -y epel-release
  3. 关闭防火墙,关闭防火墙开机自启
    systemctl stop firewalld
    systemctl disable firewalld.service
  4. 配置ycx用户具有root权限,方便后期执行root权限的命令
    vim /etc/sudoers
    
    ycx     ALL=(ALL)     NOPASSWD:ALL
  5. 在/opt目录下创建software和module文件夹,并修改所属主和所属组
  6. 卸载虚拟机自带JDK
    rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps 
  7. 利用hadoop102克隆虚拟机hadoop103和hadoop104
  8. 修改三台虚拟机为静态IP,以hadoop102为例
    vim /etc/sysconfig/network-scripts/ifcfg-ens33

  9.  设置VMware的网络虚拟编辑器

  10. 修改Windows系统适配器VMware Network Adapter VMnet8的IP地址

  11. 修改主机名称,配置Linux克隆机主机名称映射hosts文件,配置windows的主机映射hosts文件

    192.168.10.102 hadoop102
    192.168.10.103 hadoop103
    192.168.10.104 hadoop104
    
  12. 安装xshell和xftp,并与三台虚拟机建立连接,并将JDK和hadoop所需的压缩包下载拷贝到虚拟机中

  13. 为hadoop102安装JDK,并配置环境变量,同时编写xsync分发脚本,将JDK分发至hadoop103和hadoop104

    tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
    sudo vim /etc/profile.d/my_env.sh
    
    #JAVA_HOME
    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export PATH=$PATH:$JAVA_HOME/bin
    
    source /etc/profile
    
    xsync分发脚本:
    #!/bin/bash
    
    if [ $# -lt 1 ]
    then
        echo Not Enough Arguement!
        exit;
    fi
    
    for host in hadoop102 hadoop103 hadoop104
    do
        echo ====================  $host  ====================
        for file in $@
        do
            if [ -e $file ]
                then
                    pdir=$(cd -P $(dirname $file); pwd)
                    fname=$(basename $file)
                    ssh $host "mkdir -p $pdir"
                    rsync -av $pdir/$fname $host:$pdir
                else
                    echo $file does not exists!
            fi
        done
    done
    
    chmod 777 xsync
    
    xsync /opt/module/
    sudo ./bin/xsync /etc/profile.d/my_env.sh
  14.  为hadoop102安装hadoop,并配置环境变量,同时分发至hadoop103、hadoop104

    tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/
    sudo vim /etc/profile.d/my_env.sh
    
    #HADOOP_HOME
    export HADOOP_HOME=/opt/module/hadoop-3.1.3
    export PATH=$PATH:$HADOOP_HOME/bin
    export PATH=$PATH:$HADOOP_HOME/sbin
    
    source /etc/profile
    
    xsync /opt/module/
    sudo ./bin/xsync /etc/profile.d/my_env.sh
  15. 为hadoop102、hadoop103、hadoop104配置SSH免密登录
    hadoop102:
    ssh-keygen -t rsa
    ssh-copy-id hadoop102
    ssh-copy-id hadoop103
    ssh-copy-id hadoop104
  16. 配置集群
    core-site.xml:
    
        
            fs.defaultFS
            hdfs://hadoop102:8020
        
    
        
            hadoop.tmp.dir
            /opt/module/hadoop-3.1.3/data
        
    
        
            hadoop.http.staticuser.user
            ycx
        
    
    hdfs-site.xml:
    
        
            dfs.namenode.http-address
            hadoop102:9870
        
    
        
            dfs.namenode.secondary.http-address
            hadoop104:9868
        
    
    yarn-site.xml:
    
        
            yarn.nodemanager.aux-services
            mapreduce_shuffle
        
    
        
            yarn.resourcemanager.hostname
            hadoop103
        
    
        
            yarn.nodemanager.env-whitelist
            JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME
        
    
    mapred-site.xml:
    
        
            mapreduce.framework.name
            yarn
        
    
    workers:
    
    hadoop102
    hadoop103
    hadoop104
    
    
    xsync /opt/module/hadoop-3.1.3/etc/hadoop/
    
    
    
  17.  启动集群

    hdfs namenode -format
    sbin/start-dfs.sh
    sbin/start-yarn.sh

ZooKeeper安装与配置
  1. 下载ZooKeeper安装包,并利用xftp拷贝至虚拟机中
  2. 解压安装包
    tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz -C /opt/module/
  3. 配置ZooKeeper 

    mv zoo_sample.cfg zoo.cfg
    mkdir zkData
    vim myid
    
    myid文件:
    hadoop102为2
    hadoop103为3
    hadoop104为4
    
    xsync apache-zookeeper-3.5.7-bin/
    vim zoo.cfg
    
    将zoo.cfg中的dataDir修改为/opt/module/zkData,并添加
    server.2=hadoop102:2888:3888
    server.3=hadoop103:2888:3888
    server.4=hadoop104:2888:3888
    
    xsync zoo.cfg
  4. 启动ZooKeeper

    bin/zkServer .sh start
    bin/zkCli.sh

Hbase安装与配置
  1. 下载Hbase安装包,并利用xftp拷贝至虚拟机中
  2. 解压安装包
    tar -zxvf hbase-2.3.6-bin.tar.gz -C /opt/module
    
  3. 配置Hbase

    hbase-env.sh:
    
    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export Hbase_MANAGES_ZK=false
    
    hbase-site.xml:
    
    
      hbase.cluster.distributed
      true
    
    
    
      hbase.master.port
      16000
    
    
    
      hbase.wal.provider
      filesystem
    
    
    
      hbase.zookeeper.quorum
      hadoop102,hadoop103,hadoop104
    
    
    
      hbase.zookeeper.property.dataDir
      /opt/module/zkData
    
    
    regionservers:
    hadoop102
    hadoop103
    hadoop104
    
    ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase/conf/core- site.xml
    ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml
    
    xsync hbase-2.3.6/
  4. 启动Hbase

    bin/start-hbase.sh

 Hbase源码下载
  1. 进入Hbase下载页面:https://hbase.apache.org/downloads.html
  2. 下载2.3.6版本

  3. 解压缩,maven编译

    mvn clean compile  package -DskipTests

     

  4. 导入IDEA并配置

  5. 将conf目录下的文件拷贝到hbase-server的resources和hbase-shell的resources中

组内分工

我负责Hbase读写数据流程的源码分析,后续根据实际进度动态调整

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/273632.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号