Hive3.1.2版本部署
- 安装Hive
- Hive Master
- hive客户端节点
- 分发hive包
- 启动 metastore 与 hiveserver2 服务
- **初始化 Hive 元数据**
- **启动 metastore 服务**
- **启动 Hiveserver2 服务**
安装Hive
wget https://dlcdn.apache.org/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
解压
cd $HIVE_HOME/conf
cp hive-default.xml.template hive-site.xml
# profile文件
# 配置环境变量
export JAVA_HOME=/usr/java/default
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/opt/bigdata/hadoop/current
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export HADOOP_CONF_DIR=/opt/bigdata/hadoop/current/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export ZOOKEEPER_HOME=/opt/bigdata/zookeeper-3.4.6
export PATH=$PATH:$ZOOKEEPER_HOME/bin
export HIVE_HOME=/opt/bigdata/hive/current
export PATH=$PATH:$HIVE_HOME/bin
export SPARK_HOME=/opt/bigdata/spark/current
export PATH=$PATH:$SPARK_HOME/bin
# Mysql数据库表创建
CREATE DATAbase `hive3_remote` ;
CREATE USER 'hive3'@'192.168.%' IDENTIFIED BY '123456';
GRANT ALL PRIVILEGES ON hive3_remote.* TO 'hive3'@'192.168.%';
FLUSH PRIVILEGES;
# 将上面的粘贴到/etc/profile末尾,然后一起发给其他主机,没有服务没关系
for i in {2,3,4,5};do scp /etc/profile node0${i}:/etc/profile ;done
# 拷贝 sql驱动
for i in {2..5} ; do scp -rp mysql-connector-java-5.1.46.jar node0${i}:`pwd`;done
Hive Master
hive-site.xml
hive.metastore.warehouse.dir
/user/hive_remote/warehouse
设置hdfs中的默认目录
javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.7.17:3306/hive3_remote?createDatabaseIfNotExist=true&useSSL=false
保存元数据的数据库连接
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
数据库驱动,需要拷贝到${HIVE_HOME}/lib目录
javax.jdo.option.ConnectionUserName
hive3
用户名和密码
javax.jdo.option.ConnectionPassword
123456
用户名和密码
hive.cli.print.header
true
hive.cli.print.current.db
true
hive客户端节点
node02,node03,node04,node05
hive.metastore.uris
thrift://node01:9083
metastore地址
分发hive包
[god@node01 hive]$ cd /opt/bigdata/hive
[god@node01 hive]$ tar czf apache-hive-3.1.2-bin.gz apache-hive-3.1.2-bin
[god@node01 hive]$ for i in {2..5};do scp -rp apache-hive-3.1.2-bin.gz node0${i}:`pwd` ;done
# 远程执行命令
for i in {2..5};do ssh node0${i} "ls /opt/bigdata/hive" ;done
# 解压
for i in {2..5};do ssh node0${i} "cd /opt/bigdata/hive && tar xf apache-hive-3.1.2-bin.gz && ln -s /opt/bigdata/hive/apache-hive-3.1.2-bin /opt/bigdata/hive/current && rm -f /opt/bigdata/hive/apache-hive-3.1.2-bin.gz " ;done
# 不放心就查看一下
for i in {2..5};do ssh node0${i} "ls /opt/bigdata/hive" ;done
# 先分发客户端的配置
cd $HIVE_HOME/conf
cat > hive-site.xml <<-EOF
hive.metastore.uris
thrift://node01:9083
metastore地址
EOF
for i in {2..5};do scp -rp hive-site.xml node0${i}:`pwd` ;done
# 然后配置hive master节点
重新拷贝上面master的配置文件 hive-site.xml 很长的那个配置文件,不需要分发
启动 metastore 与 hiveserver2 服务
初始化 Hive 元数据
[god@node01 conf]$ schematool -dbType mysql -initSchema
# 如果有报错
com.google.common.base.Preconditions.checkArgument
复制hadoop高版本的guava.jar包到hive
cp /opt/bigdata/hadoop/current/share/hadoop/common/lib/guava-27.0-jre.jar /opt/bigdata/hive/current/lib/
rm -f /opt/bigdata/hive/current/lib/guava-19.0.jar
启动 metastore 服务
[god@node01 current]$ hive --service metastore
# 后台运行
nohup hive --service metastore 1> /opt/bigdata/hive/current/metastore.log 2>/opt/bigdata/hive/current/metastor_err.log &
启动 Hiveserver2 服务
# JDBC/ODBC 接口连接 Hive 需要启动 Hiveserver2 服务
# 在node03启动hiveserver2
hive --service hiveserver2 等价于 hiveserver2
# 让 Hiveserver2 服务启动到后台
nohup hiveserver2 --hiveconf hive.server2.thrift.prot=10000 1>/opt/bigdata/hive/current/hiveserver.log 2> /opt/bigdata/hive/current/hiveserver.err &
# node04连接
beeline -u jdbc:hive2://node03:10000/default -n god
show tables;
# 使用beeline连接到hiveserver2服务,会在hdfs的/tmp/hive目录下创建一个用户名的目录,如果没有权限就报错
[god@node03 ~]$ hdfs dfs -ls /tmp/hive
Found 3 items
drwx-wx-wx - god supergroup 0 2021-10-24 12:24 /tmp/hive/_resultscache_
drwx------ - balala supergroup 0 2021-10-24 12:31 /tmp/hive/balala
drwx------ - god supergroup 0 2021-10-24 12:31 /tmp/hive/god
hadoop fs -chmod 777 /tmp