栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Spark连接Hive的两种方式

Spark连接Hive的两种方式

一、使用hive-site.xml 第一步:将集群中的hive-site.xml的内容复制出来,并放在idea项目的resources下,要求文件命名为:hive-site.xml

 
    datanucleus.schema.autoCreateAll
    true
  


javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.38.160:3306/hive_db?createDatabaseIfNotExist=true

 

javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver

 

javax.jdo.option.ConnectionUserName
root

 

javax.jdo.option.ConnectionPassword
000


第二步:向hive-site.xml中添加以下配置

    hive.metastore.uris
    thrift://192.168.38.160:9083

第三步:将集群中的core-site.xml和hdfs-site.xml也都复制并放在idea项目的resources下,名称也要保持一致。

效果图:

第四步:编写Spark代码,验证是否连接成功

注意:pom文件配置,要与集群环境一致

连接成功!

二、在config中配置thrift连接(简单快捷)
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import java.util.Properties

object copy_task1 {
  def main(args: Array[String]): Unit = {
    val sparkConf=new SparkConf().setMaster("local[*]").setAppName("")
    val spark=SparkSession.builder().config("hive.metastore.uris","thrift://192.168.38.160:9083")
      .config(sparkConf).enableHiveSupport().getOrCreate()
 spark.sql("select * from data").show()

  }
}

简单添加配置项,将thrift配置加入到config中。

此方法只允许在联网情况下使用,因为会需要下载连接包,无网络或者其他情况下请使用第一种方式。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/662878.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号