2.第二点要把hive搭建好,因为链接hive首先要hive没有问题(10条消息) 必成功的Hadoop环境搭建jdk环境搭建-超详细操作_吃土的程序员的博客-CSDN博客_hadoop搭建jdk
3.接下来就是ider的操作教程 3.1打开ider 3.2新建项目(10条消息) 超详细Hive环境手把手搭配教学,学就会,ODS层搭配成功搭建_吃土的程序员的博客-CSDN博客
3.3新建maven项目点击继续
3.4设置自己的名称与路径点击完成
3.5点击pom文件并添加依赖
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
hive
scala-library
spark-core_2.11
spark-sql_2.11
spark-hive_2.11
jcl-over-slf4j
slf4j-api
slf4j-log4j12
log4j
mysql-connector-java
3.7点击刷新并开始下载依赖(大概要下载半个小时左右)
3.8点击进入项目结构
3.9点击+号添加Scala SDK
4.0下载Scala版本
4.1选中scala版本并点击ok
4.2 添加hive的文件调用
4.3标红地方要修改为自己的端口和ip,自己的端口可以在虚拟机里Hadoop的配置文件中core-site.xml中看到
hive.exec.scratchdir hdfs://192.168.11.100:8020/user/hive/tmp hive.metastore.warehouse.dir hdfs://192.168.11.100:8020/user/hive/warehouse hive.querylog.location hdfs://192.168.11.100:8020/user/hive/log hive.metastore.uris thrift://192.168.11.100:9083 metastore.catalog.default hive javax.jdo.option.ConnectionURL jdbc:mysql://192.168.11.100:3306?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver javax.jdo.option.ConnectionUserName hive javax.jdo.option.ConnectionPassword hive
4.4点击蓝色项目包并新建Scala类,选择object项目(在object可以运行)
4.5等待pom文件中下载好以后,可以通过代码调用连接hive(等待开启hive后运行代码)
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import java.util.Properties
object hive1 {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local").setAppName("hive")
//创建sparksession对象
val spark = SparkSession.builder().config(conf).enableHiveSupport().getOrCreate()
spark.sql("show databases").show()
}
}
4.6开启虚拟机并开启Hadoop服务
4.7开启hive服务的监听端口
4.8打开一个新窗口,进入hive
4.9在打开一个新窗口,在/下创建一个/user文件并赋予最高权限
5.0成功连上hive数据库
---------------------------------------------------------------------------------------------------------
以上就算连接hive的过程,也算对自己的一个小总结,还希望分享有帮助!!!



