栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hive3.1.2版本部署

Hive3.1.2版本部署

Hive3.1.2版本部署
  • 安装Hive
    • Hive Master
    • hive客户端节点
    • 分发hive包
    • 启动 metastore 与 hiveserver2 服务
      • **初始化 Hive 元数据**
      • **启动 metastore 服务**
      • **启动 Hiveserver2 服务**

安装Hive
wget https://dlcdn.apache.org/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
解压
cd $HIVE_HOME/conf
cp hive-default.xml.template hive-site.xml

# profile文件
# 配置环境变量

export JAVA_HOME=/usr/java/default
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/opt/bigdata/hadoop/current
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export HADOOP_CONF_DIR=/opt/bigdata/hadoop/current/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export ZOOKEEPER_HOME=/opt/bigdata/zookeeper-3.4.6
export PATH=$PATH:$ZOOKEEPER_HOME/bin

export HIVE_HOME=/opt/bigdata/hive/current
export PATH=$PATH:$HIVE_HOME/bin
export SPARK_HOME=/opt/bigdata/spark/current
export PATH=$PATH:$SPARK_HOME/bin


# Mysql数据库表创建
CREATE DATAbase `hive3_remote` ;
CREATE USER 'hive3'@'192.168.%' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON hive3_remote.* TO 'hive3'@'192.168.%';
FLUSH PRIVILEGES;

# 将上面的粘贴到/etc/profile末尾,然后一起发给其他主机,没有服务没关系
for i in {2,3,4,5};do scp /etc/profile node0${i}:/etc/profile ;done


# 拷贝 sql驱动
for i in {2..5} ; do scp -rp mysql-connector-java-5.1.46.jar  node0${i}:`pwd`;done
Hive Master
hive-site.xml



    
        hive.metastore.warehouse.dir
        /user/hive_remote/warehouse
        设置hdfs中的默认目录
    
    
        javax.jdo.option.ConnectionURL
        jdbc:mysql://192.168.7.17:3306/hive3_remote?createDatabaseIfNotExist=true&useSSL=false
        保存元数据的数据库连接
    
    
        javax.jdo.option.ConnectionDriverName
        com.mysql.jdbc.Driver
        数据库驱动,需要拷贝到${HIVE_HOME}/lib目录
    
    
        javax.jdo.option.ConnectionUserName
        hive3
        用户名和密码
    
    
        javax.jdo.option.ConnectionPassword
        123456
        用户名和密码
    

    
        hive.cli.print.header
        true
    
    
        hive.cli.print.current.db
        true
    


hive客户端节点
node02,node03,node04,node05


    
        hive.metastore.uris
        thrift://node01:9083
        metastore地址
    

分发hive包
[god@node01 hive]$ cd  /opt/bigdata/hive
[god@node01 hive]$ tar czf apache-hive-3.1.2-bin.gz apache-hive-3.1.2-bin
[god@node01 hive]$ for i in {2..5};do scp -rp apache-hive-3.1.2-bin.gz node0${i}:`pwd` ;done

# 远程执行命令
for i in {2..5};do ssh node0${i} "ls /opt/bigdata/hive" ;done

# 解压
for i in {2..5};do ssh node0${i} "cd /opt/bigdata/hive && tar xf apache-hive-3.1.2-bin.gz && ln -s /opt/bigdata/hive/apache-hive-3.1.2-bin /opt/bigdata/hive/current && rm -f /opt/bigdata/hive/apache-hive-3.1.2-bin.gz " ;done

# 不放心就查看一下
for i in {2..5};do ssh node0${i} "ls /opt/bigdata/hive" ;done

# 先分发客户端的配置
cd $HIVE_HOME/conf
cat > hive-site.xml <<-EOF 



    
        hive.metastore.uris
        thrift://node01:9083
        metastore地址
    

EOF

for i in {2..5};do scp -rp hive-site.xml node0${i}:`pwd` ;done


# 然后配置hive master节点
重新拷贝上面master的配置文件 hive-site.xml 很长的那个配置文件,不需要分发

启动 metastore 与 hiveserver2 服务 初始化 Hive 元数据
[god@node01 conf]$ schematool -dbType mysql  -initSchema

# 如果有报错
com.google.common.base.Preconditions.checkArgument

复制hadoop高版本的guava.jar包到hive
cp /opt/bigdata/hadoop/current/share/hadoop/common/lib/guava-27.0-jre.jar /opt/bigdata/hive/current/lib/

rm -f /opt/bigdata/hive/current/lib/guava-19.0.jar
启动 metastore 服务
[god@node01 current]$ hive --service metastore

# 后台运行
nohup hive --service metastore 1> /opt/bigdata/hive/current/metastore.log 2>/opt/bigdata/hive/current/metastor_err.log  &


启动 Hiveserver2 服务
# JDBC/ODBC 接口连接 Hive  需要启动 Hiveserver2 服务
# 在node03启动hiveserver2
hive --service hiveserver2 等价于 hiveserver2

# 让 Hiveserver2 服务启动到后台
nohup hiveserver2 --hiveconf hive.server2.thrift.prot=10000 1>/opt/bigdata/hive/current/hiveserver.log 2> /opt/bigdata/hive/current/hiveserver.err &

# node04连接
beeline -u jdbc:hive2://node03:10000/default -n god
show tables;

# 使用beeline连接到hiveserver2服务,会在hdfs的/tmp/hive目录下创建一个用户名的目录,如果没有权限就报错
[god@node03 ~]$ hdfs dfs -ls /tmp/hive
Found 3 items
drwx-wx-wx   - god    supergroup          0 2021-10-24 12:24 /tmp/hive/_resultscache_
drwx------   - balala supergroup          0 2021-10-24 12:31 /tmp/hive/balala
drwx------   - god    supergroup          0 2021-10-24 12:31 /tmp/hive/god


hadoop  fs  -chmod 777  /tmp
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/345468.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号