1.下载hive包,这里使用的是hive 2.3.0,hadoop 2.7.1
Index of /dist/hive
2.解压压缩包
tar zxvf apache-hive-2.3.0-bin.tar.gz
--------------------------
只是为了做实验使用,因此未创建工作组及hive用户,不涉及core-site.xml代理配置
--------------------------
3.添加$HIVE_HOME,使用source生效环境变量
vim /etc/profile source /etc/profile
4.修改后,完整的环境变量内容
#Java/Hive/Hadoop export JAVA_HOME=/usr/java/jdk1.8.0_161 export HADOOP_HOME=/usr/hadoop/hadoop-2.7.1 export HIVE_HOME=/usr/apache-hive-2.3.0-bin export PATH=$PATH:$JAVA_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin #spark export SPARK_HOME=/usr/spark-2.4.2 export PATH=$PATH:$SPARK_HOME/bin
5.在hdfs创建hive目录
hdfs dfs -mkdir -p /user/hive/warehouse hdfs dfs -mkdir -p /user/hive/log
6.使用derby初始化元数据库,一般使用mysql作为hive元数据库
schematool -initSchema -dbType derby
遇到的问题:
因之前配置过hive 2.3.9,提示元数据库已存在,此处贴出部分报错,Error: FUNCTION 'NUCLEUS_ASCII' already exists
解决方法:
将已存在的metastore_db更名为:metastore_db.tmp
查找方式:根目录下find -name "metastore_db*"find -name "metastore_db*" mv metastore_db metastore_db.tmp
7.初始化成功
8.验证
启动hive后,hive下show databases;



