栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 其他

Spark3.0.3版本报““main“ java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream“

其他 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Spark3.0.3版本报““main“ java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream“

 大数据开发环境就是这样,你刚填完一个坑,就掉入了另外一个坑,运行一个spark远程调用示例

  SparkConf sparkConf = new SparkConf()
                .setMaster("spark://ss3:7077")
                .setAppName("JavaSparkPi");

        SparkSession spark = SparkSession
                .builder()
                .config(sparkConf)
                .getOrCreate();

结果在创建SparkConf对象的时候,报如下错误

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
	at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:75)
	at org.apache.spark.SparkConf.(SparkConf.scala:70)
	at org.apache.spark.SparkConf.(SparkConf.scala:59)
	at JavaWordCount.main(JavaWordCount.java:54)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
	at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
	at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
	... 4 more

查找资料后了解到,从spark1.4以后,所有spark的编译都是没有将hadoop的classpath编译进去的,所以必须在spark-env.sh中指定hadoop中的所有jar包。

既然原因找到了,那我们就去spark修改spark-env.sh, 加上以下配置,前提是hadoop命令已经可以使用

export SPARK_DIST_CLASSPATH=$(hadoop classpath)

同时还需要检查pom配置,下面贴出正确的pom依赖配置

       
        
            org.apache.hadoop
            hadoop-common
            ${hadoop.version}

        
        
            org.apache.hadoop
            hadoop-mapreduce-client-core
            ${hadoop.version}

        
        
            org.apache.spark
            spark-core_2.12
            ${spark.version}

        
        
            org.apache.spark
            spark-hive_2.12
            ${spark.version}
            
        
         
            org.apache.spark
            spark-streaming_2.12
            ${spark.version}
            
        

        
            
            org.scala-lang
            scala-library
            ${scala.version}
        
        
            
                
                    com.google.code.gson
                    gson
                
                
                    org.jboss.netty
                    netty
                
                
                    io.netty
                    netty
                
                
                    io.netty
                    netty-all
                
            
            org.apache.spark
            spark-sql_2.12
            ${spark.version}
        
        
            org.apache.hive
            hive-jdbc
            ${hive.version}
        
        
            org.apache.commons
            commons-lang3
            3.8.1
        
    
  

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/279536.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号