栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

java 任务嵌入spark启动类

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

java 任务嵌入spark启动类

依赖类 org.apache.spark.launcher.SparkLauncher

启动类:

import org.apache.spark.launcher.{SparkAppHandle, SparkLauncher}

object SparkLuncherTest {
  def main(args: Array[String]): Unit = {
    val launcher = new SparkLauncher()
    .setAppName("myTest")
    .setSparkHome("C:\spark-2.4.7-bin-3.0.0\")
    .setMaster("local")
    .setAppResource("D:\workspace\data_analysis\offlineJob\target\offlineJob.jar")
    .setMainClass("com.test.ValidationSet.SparkTest")
//    .setDeployMode("cluster")
      .startApplication(new SparkAppHandle.Listener {
        override def stateChanged(sparkAppHandle: SparkAppHandle): Unit = {
          println("state change")
        }

        override def infoChanged(sparkAppHandle: SparkAppHandle): Unit = {
          println("info change")
        }
      })

    while(!"FINISHED".equalsIgnoreCase(launcher.getState.toString)&& !"FAILED".equalsIgnoreCase(launcher.getState.toString)){
      println(launcher.getState.toString)
      Thread.sleep(1000*200L)
    }

    println(launcher.getState.toString)
  }

}

逻辑执行代码:

 

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object SparkTest {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
//      .setAppName("aaa")
//      .setMaster("local")

    val sc = new SparkContext(conf)
    sc.setLogLevel("WARN")
    val value: RDD[String] = sc.parallelize(Seq("aaa","bbb"))
    println("mt:"+value.collect().toBuffer)
    sc.stop()
  }
}

 

开始执行:执行命令

java -cp D:workspacedata_analysisofflineJobtargetofflineJob.jar com.sobot.ValidationSet.SparkLuncherTest

打印日志:

如下打印了SparkTest类的println 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/838161.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号