栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Spark3.2教程(十)编程Scala程序在Standalone集群中运行

Spark3.2教程(十)编程Scala程序在Standalone集群中运行

如果运行出现以下报错:

Exception in thread "main" java.lang.NoSuchMethodError: scala.reflect.ClassTag$.Int()Lscala/reflect/ManifestFactory$IntManifest;

是Scala版本不匹配造成,请参见:
Spark3.2教程(前置)关于Spark3.2.0与Scala版本的坑

在IDEA中开发:

package com.alan

import org.apache.spark.{SparkConf, SparkContext}

object Test1 {
  def main(args: Array[String]): Unit = {
    //创建SparkContexta
    //本地运行
    // val conf=new SparkConf().setMaster("local[2]").setAppName("WordCount")
    //提交运行
    val conf = new SparkConf().setAppName("WordCound");
    val sc = new SparkContext(conf)
    //加载文件
    val file = sc.textFile("hdfs://hp301:9000/ee/b.txt")
    //val file=sc.textFile("file:///d:/test/words.txt")
    //处理
    val flatFile = file.flatMap(item => item.split(" "))
    val flatFileMap = flatFile.map(item => (item, 1))
    val aggCount = flatFileMap.reduceByKey((curr, agg) => curr + agg)
    //得到结果
    aggCount.foreach(item => println(item))
  }
}

注意:本次是从HDFS中取数据进行计算,如果没有配置Hadoop,可以改成从Linux本地读取。
配置pom.xml中打包插件,为了将依赖都打入包中:


  
        src/main/scala
        
            
            
                org.scala-tools
                maven-scala-plugin
                
                    
                        
                        
                            compile
                            testCompile
                        
                        
                            ${scala.version}
                            
                                -target:jvm-1.8
                            
                        
                    
                
            

            
            
                org.apache.maven.plugins
                maven-assembly-plugin
                
                    
                        
                            com.alan.Test1
                        
                    
                    
                        jar-with-dependencies
                    
                
                
                    
                        make-assembly
                        package
                        
                            single
                        
                    
                
            
        

双击package命令,执行Maven打包:

将打好的包上传到linux的/apps文件夹下,执行命令:

 spark-submit --master spark://hp301:7077  /apps/test_s2-1.0-SNAPSHOT-jar-with-dependencies.jar 

在Web UI中可以看到结果:

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/676649.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号