栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark操作本地数据,hdfs数据,hudi数据遇到的问题

spark操作本地数据,hdfs数据,hudi数据遇到的问题

正常的spark加载本地文件问题:

首先是spark 产生的问题是:HADOOP没有配置环境变量

 没有配置HADOOP 的本地环境变量,导致本地IDEA上跑spark程序,老师出现异常
 将hadoop的安装目录配置到系统环境变量中的HADOOP下

配置完HADOOP 的本地环境变量,仍旧没有成功的加载到本地文件。

跑spark程序还是没有成功,日志上显示的信息有加载本地路径,还有hdfs路径,
此时由于之前 用spark链接过hdfs文件系统,在resource 下放过
有关hdfs的配置文件(xml格式的文件)。
将之前的那几个文件从resource中删除掉即可。
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/671587.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号