栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 系统运维 > 运维 > Linux

IDEA中Spark连接外置hive详细步骤

Linux 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

IDEA中Spark连接外置hive详细步骤

环境要求:

  • 虚拟机上hadoop集群hdfs开启
  • 虚拟机配置hive,且hive配置metastore到mysql
  • windows中配置hadoop环境,且IDEA中sparksql内部可运行
  • 虚拟机防火墙关闭

网上很多帖子的操作步骤过于繁琐,现总结如下:

1.向pom.xml中导入依赖(mysql驱动、hive依赖,spark-on-hive依赖)

        
            mysql
            mysql-connector-java
            5.1.27
        
        
            org.apache.spark
            spark-hive_2.12
            3.0.0
        

        
            org.apache.hive
            hive-exec
            1.2.1
        

2.将虚拟机hive/conf目录下hive-site.xml 文件拷贝到项目的 resources 目录中,(需根据自己的mysql情况调整url、用户名和密码)




    
        hive.metastore.schema.verification
        false
    
    
        javax.jdo.option.ConnectionURL
        jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true
        JDBC connect string for a JDBC metastore
    
    
        javax.jdo.option.ConnectionDriverName
        com.mysql.jdbc.Driver
        Driver class name for a JDBC metastore
    
    
        javax.jdo.option.ConnectionUserName
        root
        username to use against metastore database
    
    
        javax.jdo.option.ConnectionPassword
        123456
        password to use against metastore database
    


3.idea项目target/classes目录中hive-site.xml是否已自动复制,若无,需要放置其中,否则spark只能本地运行

 4.开启Hive支持,在创建SparkSession时,添加enableHiveSupport()即可

//创建 SparkSession
val spark: SparkSession = SparkSession
 .builder()
 .enableHiveSupport()
 .master("local[*]")
 .appName("sql")
 .getOrCreate()
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/859698.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号