栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

写给自己的 scala.Product.$init$(Lscala/Product;)V问题解决方案

写给自己的 scala.Product.$init$(Lscala/Product;)V问题解决方案

最近再操作学习spark的时候遇到的问题现在这儿记录下来以便后期沉淀一下。如有和我一样现象的同学朋友们多多注意一下。

首先再成这个异常的原因相信大家都查询了很多资料造成的原因主要就是Scala版本和Spark版本不匹配造成的。

解决办法首先

进入项目设置然后查看其中对应的Scala版本。

然后再去pom表里边查看你引入的Spark版本

 最后查看是否匹配不匹配的话更改一下pom表或者idea引入的Scala版本就好(切记不要引入两个版本做人要专一,为什么我会知道这个问题?我也不想知道我为什么知道这个问题。)。当然一般人到这边也就结束了,我为了我以后好查看肯定不能这么就结束了。不然我咋知道他们两个的版本对照?我以后还要再重新查一遍Scala和Spark的版本对照浪费自己时间是可耻的。

所以,这里给自己留下证据让自己以后好找。

这是地址图片看不了自己链接过去看:

https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11

https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.12?__cf_chl_jschl_tk__=8dd03c607c8e97e5db0e988e5fc8c6ddb6f9952d-1592894813-0-AaK_Qsxm0REfQWrRUDNVE29T2_dmbMCde9KvpW1roPPN2mU4wRAwWSRMRsnmPBHmM2EgWs1X-ZWwvGmsE6G9-kj11BP6ZHrnpxrbxdVrUJRfkHoz8ZR1-52rX4ywIxRJxEh1ZGDYgWciLrnHKF-ygiRskHH17G2GyGVvmJgEpWqUTZglOiHmnnhf-HUGlMc26d3n8df3zQLL07qCB749puFL-e_HljpsR-JrDyBBLKPaAfD348zmpiI_ZVAyofGr6jPWoZpDZh4DlWDYPuevl-Uso5c3ieLbi6BdCbXBOnk35DugUBXkTCYazYWU9hBhN8GvAuxyAY3VWpXjPTb16UEvbvFNngBtEm7SvDYP7unFYTLxAoHV6utbO9GRY_70J1tMcBYwq74uHwon2Pt6Y1o

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/746016.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号