在Windows10配置Spark(python|hadoop|scala|java)
下载安装包后,一定要检查各个应用之间是否匹配!!! 切记!!!! 切记!!!! 切记!!!! 一定要找好对应版本!!!!类似于https://blog.csdn.net/tianzhimuzi/article/details/80306689的问题,笔者昨天就是鼓捣了一下午,都没联想到是scala和spark的版本不对应,首先是我因为作业需要先下载了spark3.1.2加hadoop2.7, jdk 17, scala 2.13
可以看到,最下面那句话提示我们spark3.0加的版本pre-built的是scala2.12,但是因为没有仔细读spark的下载的提示,所以我以为2.13也可以兼容,并且屁颠屁颠地跑去scala官网查了java和scala的兼容版本,看到最新下载的jdk 17和2.13可以兼容,就以为spark3.1.2可以和他两兼容了,于是乎报了一下午错,错误类型主要是初始化错误Exception in thread “main” java.lang.ExceptionInInitializerError等等,或者说在pycharm里显示Exception: Java gateway process exited before sending the driver its port number(当然这是因为没有配置pycharm里的环境变量)
主要是各种百度或者科学上网都没查到。。。。心态炸了
最后的解决办法是睡觉前不死心,跑到spark官网查看spark3.1.2的官方文档,终于看到



