栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

2021-11-07

2021-11-07

记录一下编写spark遇到的坑 IDEA安装详见

安装IDEA

安装scala

这里有个坑,spark目前不支持2.13版本,所以我安装的是2.11版本的
scala下载

IDEA中编写scala代码

新建maven project

这是maven工程的结构,在scala目录下新建一个scala类(即object),现在就能写scala程序了

重点是pom.xml添加spark依赖

这是我的pom.xml



    4.0.0
    org.example
    untitled11
    1.0-SNAPSHOT
    
        2.4.7
        2.11.12
    
    
        
        
            org.apache.spark
            spark-core_2.11
            ${spark.version}
        
        
        
            org.scala-lang
            scala-library
            ${scala.version}
        
    

pom.xml是我试过成功的,注意一下scala版本和你的版本一致,spark版本和scala版本兼容,右上角不报错,最后右上角一个m标志点一下就开始下载了,下载很慢,可以在settings里面换源(我不会)

下载好后,就可以看到External Libraries添加了依赖

运行spark程序,出结果,但是报错,原因缺少了winnutil 这个包


在windows上配置hadoop,先下载hadoop,在下载hadoop/bin,将前者中的bin替换掉,后者bin有winnutil 包等,注意版本一致
hadoop下载,下载 .tar.gz
下载更换的hadoop/bin
下载好了,windows配置hadoop环境变量,注意hadoop目录不要放在Program Files目录下,原因可能是空格导致,报以下错误,用PROGRA~1代替Program Files这种软链接方法好像也不行。

将hadoop目录放在一个无空格的文件夹或者直接c盘下,就解决了

运行一下spark代码,无报错信息

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/439156.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号