栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

spark(scala版本)提交jar到集群环境的常见问题

spark(scala版本)提交jar到集群环境的常见问题

1. 找不到启动类

原因是没有编译启动类,造成没有编译的pom.xml插件配置如下。

      
        net.alchim31.maven
        scala-maven-plugin
        3.2.2
        
          
            
            
              testCompile
                        
          
        
      

上面的配置,刚开始的时候可以编译 ,后来就不编译.scala文件了,导致submit提交任务时找不到类。将配置修改如下:

      
        net.alchim31.maven
        scala-maven-plugin
        3.2.2
        
          
            
            
              compile
            
            
              
              
                **/*.scala
              
            
          
        
      
2. 不显示运行应用问题 Running Applications (0)的问题

集群环境版本为spark 3.2.1,打包的依赖是2.4.8,pom.xml文件指定如下:

    
      org.apache.spark
      spark-core_2.12
      2.4.8
    

    
      org.apache.spark
      spark-streaming_2.12
      2.4.8
    

版本不一致导致了应用不显示,采用3.2.1版本进行打包。


      org.apache.spark
      spark-core_2.12
      3.2.1
      provided
    

    
      org.apache.spark
      spark-streaming_2.12
      3.2.1
      provided
    
3. 集群环境有的包,pom.xml配置依赖时使用provided

在集群环境中,spark-core_2.12-3.2.1.jar和spark-streaming_2.12-3.2.1.jar在集群环境中已经存在了,在配置pom.xml文件时,指定provided。


      org.apache.spark
      spark-core_2.12
      3.2.1
      provided
    

    
      org.apache.spark
      spark-streaming_2.12
      3.2.1
      provided
    

打包依赖版本,最好能够与运行环境保持一致,版本不一致可能会导致一些不可控的问题。

4. 打包环境版本与运行环境版本应一致

在spark 2.4.8版本时,使用kafka组件总是出现各种错误(包括找不到类的方法),导致程序无法启动。

java.lang.NoSuchMethodError: org.apache.spark.internal.Logging.$init

后来直接升级到spark 3.2.1,问题得到解决。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/747472.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号