栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

在spark中使用hive表

在spark中使用hive表

1.把hive-site.xml core-site.xml hdfs-site.xml 三个配置文件拷贝到spark的conf目录下

2.然后还有一个mysql的驱动包(hive/lib里有)拷贝到spark的lib目录下

3.输入$SPARK_HOME/bin/spark-sql

  

4.如果启动sparkSQL的时候发现日志太多, 可以到conf目录下, 有一个log4j的文件, 里边可以改级别 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/711878.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号