首先,将apache-hive-2.1.1-bin.tar.gz上传至Hadoop集群主节点上解压
第一步,安装MySQL具体可参考这里
MySQL配置
安装完成之后配置用户密码以及远程登录
mysql> GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '密码' WITH GRANT OPTION; // 强制写入 mysql> FLUSH PRIVILEGES;
Hive的配置
(1)修改hive-env.sh配置文件,配置Hadoop环境变量
进入Hive安装包下的conf文件夹,将hive-env.sh.template文件进行拷贝并重命名为hive-env.sh,具体指令如下:
$ cp hive-env.sh.template hive-env.sh
然后修改hive-env.sh配置文件,添加Hadoop环境变量,具体内容如下:
export HADOOP_HOME=/export/servers/hadoop-2.7.4
上述操作是设置Hadoop环境变量,作用是无论系统是否配置Hadoop环境变量,在Hive执行时,一定能够通过hive-env.sh配置文件去加载Hadoop环境变量,由于在部署Hadoop集群时已经配置了全局Hadoop环境变量,因此可以不设置该参数。
(2)添加hive-site.xml配置文件,配置MySQL相关信息
由于Hive安装包conf目录下,没有提供hive-site.xml文件,这里需要创建并编辑一个hive-site.xml配置文件,具体内容如下所示:
javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true Mysql连接协议 javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver JDBC连接驱动 javax.jdo.option.ConnectionUserName root 用户名 javax.jdo.option.ConnectionPassword 123456 上面填写你的密码
完成配置后,Hive就会把默认使用Derby数据库方式所覆盖。这里需要注意的是,由于使用了MySQL数据库,那么就需要上传MySQL连接驱动的Jar包到Hive安装包的lib文件夹下,笔者使用mysql-connector-java-5.1.47.jar点击下载,使用scp命令上传即可。至此就完成了本地模式的安装。
如果使用远程模式的安装方式,只需要将hive-site.xml配置文件中的localhost修改为具有MySQL服务的节点IP即可,这样无论用户通过什么路径下启动Hive客户端,都可以访问相同的元数据信息。
启动数据库<执行的时候去hive得bin目录底下>
当 MySQL 部署好,Hive 配置修改好之后,启动 metastore 并不会自动初始化 metastore 库,需要手动执行初始化操作。
Hive 自带了 schematool 用于初始化 metastore,命令如下:
./schematool -dbType mysql -initSchema
然后./hive --service metastore &
最后启动shell
./hive



