tar zxf mysql-5.6.39-linux-glibc2.12-x86_64.tar.gz -C /data/2、修改文件目录名称
mv /data/mysql-5.6.39-linux-glibc2.12-x86_64/ mysql3、创建数据目录
mkdir sqldata useradd -M -s /sbin/nologin mysql ##授权 cd /data/ chown -R mysql.mysql mysql4、配置环境变量
vim /etc/profile PATH=$PATH:/data/mysql/bin source /etc/profile5、初始化
yum install libaio* perl-Module-Install.noarch -y scripts/mysql_install_db --user=work --basedir=/data/mysql --datadir=/data/mysql/sqldata chmod -R 777 sqldata6、复制配置文件
cp support-files/my-default.cnf /etc/my.cnf vim /etc/my.cnf max_allowed_packet=1024M basedir = /data/mysql/ datadir = /data/mysql/sqldata7、复制启动脚本
cp support-files/mysql.server /etc/init.d/mysqld chkconfig --add mysqld chkconfig mysqld on service mysqld start8、登录
mysqladmin -uroot password 123abcABC mysql -uroot -p123abcABC二、安装hive服务端 1、解压配置环境变量
#node1 解压指定位置安装 tar zxf apache-hive-1.2.1-bin.tar.gz -C /data/ #配置环境变量 export HIVE_HOME=/data/apache-hive-1.2.1-bin export PATH=$PATH:$HIVE_HOME/bin #刷新环境变量生效 source /etc/profile2、配置Hive文件
(1)修改hive-env.sh
cd /data/apache-hive-1.2.1-bin/conf cp hive-env.sh.template hive-env.sh vim hive-env.sh HADOOP_HOME=/data/hadoop/hadoop-2.7.2 export HIVE_CONF_DIR=/data/apache-hive-1.2.1-bin/conf
(2)修改hive-log4j.properties
#修改hive的log存放日志位置 mv hive-log4j.properties.template hive-log4j.properties vim hive-log4j.properties property.hive.log.dir = /data/apache-hive-1.2.1-bin/logs mkdir /data/apache-hive-1.2.1-bin/logs3、配置MySQL作为metastore
默认情况下, Hive的元数据保存在了内嵌的 derby 数据库里, 但一般情况下生产环境使用 MySQL 来存放 Hive 元数据。
(1)安装mysql
#安装mysql,拷贝 mysql-connector-java-5.1.45.tar.gz 放入 $HIVE_HOME/lib 下。 cp mysql-connector-java-5.1.45-bin.jar /data/apache-hive-1.2.1-bin/lib
(2)修改配置文件
#复制hive-default.xml.template为hive-site.xml 文件,删除掉configuration里的配置信息,重新配置 MySQL 数据库连接信息。 cd /data/apache-hive-1.2.1-bin/conf/ cp hive-default.xml.template hive-site.xml vim hive-site.xml
hive.exec.scratchdir /user/hive/tmp hive.scratch.dir.permission 755 hive.metastore.warehouse.dir /user/hive/warehouse javax.jdo.option.ConnectionURL jdbc:mysql://node1/hive?createDatabaseIfNotExist=true javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver javax.jdo.option.ConnectionUserName hive javax.jdo.option.ConnectionPassword hive hive.cli.print.header true hive.cli.print.current.db true hive.metastore.schema.verification false
(3)mysql创建hive用户密码
mysql -u root -p123abcABC CREATE DATAbase hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci; USE hive; CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'localhost' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'hadoop-4' IDENTIFIED BY 'hive'; FLUSH PRIVILEGES;
(4)运行Hive
#初始化数据库 schematool -dbType mysql -initSchema hive hive
(5)启动hive
#服务端启动: nohup hiveserver2 &
#客户端使用方法
这里node1作为MySQL Server,node1作为metastore服务器,node2作为客户端。
服务端上面已经安装好,接下来安装客户端
(1)解压配置环境变量
#node2 解压指定位置安装 tar zxf apache-hive-1.2.1-bin.tar.gz -C /data/ #配置环境变量 export HIVE_HOME=/data/apache-hive-1.2.1-bin export PATH=$PATH:$HIVE_HOME/bin #刷新环境变量生效 source /etc/profile
(2)配置Hive文件
#修改hive-env.sh cd /data/apache-hive-1.2.1-bin/conf cp hive-env.sh.template hive-env.sh vim hive-env.sh HADOOP_HOME=/data/hadoop/hadoop-2.7.2 export HIVE_CONF_DIR=/data/apache-hive-1.2.1-bin/conf
(3)修改hive-log4j.properties
#修改hive的log存放日志位置 mv hive-log4j2.properties.template hive-log4j2.properties vim hive-log4j2.properties property.hive.log.dir = /data/apache-hive-1.2.1-bin/logs mkdir /data/apache-hive-1.2.1-bin/logs
(4)配置MySQL作为metastore
默认情况下, Hive的元数据保存在了内嵌的 derby 数据库里, 但一般情况下生产环境使用 MySQL 来存放 Hive 元数据。
(5)安装mysql
#安装mysql,拷贝 mysql-connector-java-5.1.45.tar.gz 放入 $HIVE_HOME/lib 下。 cp mysql-connector-java-5.1.45-bin.jar /data/apache-hive-1.2.1-bin/lib
(6)修改配置文件
#复制hive-default.xml.template为hive-site.xml 文件,删除掉configuration里的配置信息,重新配置 MySQL 数据库连接信息。 cd /data/apache-hive-1.2.1-bin/conf/ cp hive-default.xml.template hive-site.xml vim hive-site.xml
4、启动方式hive.exec.scratchdir /user/hive/tmp hive.scratch.dir.permission 755 hive.metastore.warehouse.dir /user/hive/warehouse hive.metastore.uris thrift://node1:9083 hive.cli.print.header true hive.cli.print.current.db true hive.metastore.schema.verification false
#node1 启动 nohup hive --service metastore & #查看node1的9083端口 netstat -ntlp |grep 9083 #客户端node2启动命令 hive



