栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

idea使用scala技术连接hive,成功教学

idea使用scala技术连接hive,成功教学

1.首先要有Hadoop服务全部开启,Hadoop搭建点以下链接

(10条消息) 必成功的Hadoop环境搭建jdk环境搭建-超详细操作_吃土的程序员的博客-CSDN博客_hadoop搭建jdk

2.第二点要把hive搭建好,因为链接hive首先要hive没有问题

(10条消息) 超详细Hive环境手把手搭配教学,学就会,ODS层搭配成功搭建_吃土的程序员的博客-CSDN博客

3.接下来就是ider的操作教程 3.1打开ider

3.2新建项目

 3.3新建maven项目点击继续

 3.4设置自己的名称与路径点击完成


3.5点击pom文件并添加依赖

3.6将有颜色的部分替换掉,并且将绿色Scala版本换成对应的版本


         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    4.0.0     org.example
    hive
    1.0-SNAPSHOT    
        8
        8
        2.11.0
        2.2.0
        1.7.16
        1.2.17
   

   
       
            org.scala-lang
            scala-library
            ${scala.version}
       

       
            org.apache.spark
            spark-core_2.11
            ${spark.version}
       

       
            org.apache.spark
            spark-sql_2.11
            ${spark.version}
       

       
            org.apache.spark
            spark-hive_2.11
            ${spark.version}
       

       
            org.slf4j
            jcl-over-slf4j
            ${slf4j.version}
       

       
            org.slf4j
            slf4j-api
            ${slf4j.version}
       

       
            org.slf4j
            slf4j-log4j12
            ${slf4j.version}
       

       
            log4j
            log4j
            ${log4j.version}
       

       
       
            mysql
            mysql-connector-java
            5.1.38
       

   

3.7点击刷新并开始下载依赖(大概要下载半个小时左右) 

3.8点击进入项目结构

 3.9点击+号添加Scala SDK

 4.0下载Scala版本

 4.1选中scala版本并点击ok

4.2 添加hive的文件调用

4.3标红地方要修改为自己的端口和ip,自己的端口可以在虚拟机里Hadoop的配置文件中core-site.xml中看到




  
    hive.exec.scratchdir
    hdfs://192.168.11.100:8020/user/hive/tmp
  
  
    hive.metastore.warehouse.dir
    hdfs://192.168.11.100:8020/user/hive/warehouse
  
  
    hive.querylog.location
    hdfs://192.168.11.100:8020/user/hive/log
  
  
    hive.metastore.uris
    thrift://192.168.11.100:9083
  
  
    metastore.catalog.default
    hive
  

  
    javax.jdo.option.ConnectionURL
    jdbc:mysql://192.168.11.100:3306?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false
  
  
    javax.jdo.option.ConnectionDriverName
    com.mysql.jdbc.Driver
  
  
    javax.jdo.option.ConnectionUserName
    hive
  
  
    javax.jdo.option.ConnectionPassword
    hive
  

4.4点击蓝色项目包并新建Scala类,选择object项目(在object可以运行)

 4.5等待pom文件中下载好以后,可以通过代码调用连接hive(等待开启hive后运行代码)

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession

import java.util.Properties

object hive1 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("hive")
    //创建sparksession对象
    val spark = SparkSession.builder().config(conf).enableHiveSupport().getOrCreate()
    spark.sql("show databases").show()

  }
}

4.6开启虚拟机并开启Hadoop服务

 4.7开启hive服务的监听端口

 4.8打开一个新窗口,进入hive

4.9在打开一个新窗口,在/下创建一个/user文件并赋予最高权限

5.0成功连上hive数据库

---------------------------------------------------------------------------------------------------------

以上就算连接hive的过程,也算对自己的一个小总结,还希望分享有帮助!!!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/688328.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号