栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

一文解决idea配置spark版本问题

一文解决idea配置spark版本问题

相信大家在idea中配置spark依赖时,总是会出现各种错误,结合我多次添加spark依赖经验,个人总结,在maven中添加spark依赖出现的错误,主要是因为版本不匹配引起,所下面我给出了两个添加依赖的方式,供大家参考:

第一种,明确scala的版本号

如上图所示,由于spark是基于scala语言的,故在添加spark依赖时,应该明确scala版本号, 故在添加spark依赖时,artifactID 包裹的位置应该是关于scala版本号,而version包裹才是spark的版本号,查看scala的版本的方式很简单,这里就不描述。

最后按照上图所示的案例,修改其他依赖即可。

第二种 不明确scala的版本号

当然有的人懒的查看scala的版本号(我就是这样),这时就可以使用第二种方式,具体依赖如下:


  org.apache.spark
  spark-core_${scala.version}
  ${spark.version}

将具体版本号,用scala.version和spark.version替换,就可以了。

总结:

从成功率来看,第一种方式要比第二种要高,要想配置成功,少走弯路,多用第一种方式。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/736277.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号