栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

IntelliJ IDEA下Maven创建Scala项目的方法步骤

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

IntelliJ IDEA下Maven创建Scala项目的方法步骤

环境:IntelliJ IDEA

版本:Spark-2.2.1 Scala-2.11.0

利用 Maven 第一次创建 Scala 项目也遇到了许多坑

创建一个 Scala 的 WordCount 程序

第一步:IntelliJ IDEA下安装 Scala 插件

 

 

安装完 Scala 插件完成

第二步:Maven 下 Scala 下的项目创建

 

正常创建 Maven 项目(不会的看另一篇 Maven 配置)

第三步:Scala 版本的下载及配置

通过Spark官网下载页面http://spark.apache.org/downloads.html 可知“Note: Starting version 2.0, Spark is built with Scala 2.11 by default.”,建议下载Spark2.2对应的 Scala 2.11。

登录Scala官网http://www.scala-lang.org/,单击download按钮,然后再“Other Releases”标题下找到“下载2.11.0

根据自己的系统下载相应的版本
接下来就是配置Scala 的环境变量(跟 jdk 的配置方法一样)

输入 Scala -version 查看是否配置成功 会显示 Scala code runner version 2.11.0 – Copyright 2002-2013, LAMP/EPFL

 

 

 

选择自己安装 Scala 的路径

第四步:编写 Scala 程序

将其他的代码删除,不然在编辑的时候会报错

 

配置 pom.xml文件

在里面添加一个 Spark

 
  2.11.0
  2.2.1
 
 
   org.apache.spark
   spark-core_2.11
   ${spark.version}
  

具体的 pom.xml 内容


 4.0.0
 cn.spark
 Spark
 1.0-SNAPSHOT
 2008
 
  2.11.0
  2.2.1
 


 
  
   scala-tools.org
   Scala-Tools Maven2 Repository
   http://scala-tools.org/repo-releases
  
 

 
  
   org.scala-lang
   scala-library
   ${scala.version}
  
  
   org.apache.spark
   spark-core_2.11
   ${spark.version}
  
  
   junit
   junit
   4.4
   test
  
  
   org.specs
   specs
   1.2.5
   test
  
 

 
  src/main/scala
  src/test/scala
  
   
    org.scala-tools
    maven-scala-plugin
    
     
      
compile
testCompile
      
     
    
    
     ${scala.version}
     
      -target:jvm-1.5
     
    
   
   
    org.apache.maven.plugins
    maven-eclipse-plugin
    
     true
     
      ch.epfl.lamp.sdt.core.scalabuilder
     
     
      ch.epfl.lamp.sdt.core.scalanature
     
     
      org.eclipse.jdt.launching.JRE_CONTAINER
      ch.epfl.lamp.sdt.launching.SCALA_CONTAINER
     
    
   
  
 
 
  
   
    org.scala-tools
    maven-scala-plugin
    
     ${scala.version}
    
   
  
 

编写 WordCount 文件

package cn.spark

import org.apache.spark.{SparkConf, SparkContext}


object WordCount {
 def main(args: Array[String]) {
  var masterUrl = "local"
  var inputPath = "/Users/huwenbo/Desktop/a.txt"
  var outputPath = "/Users/huwenbo/Desktop/out"

  if (args.length == 1) {
   masterUrl = args(0)
  } else if (args.length == 3) {
   masterUrl = args(0)
   inputPath = args(1)
   outputPath = args(2)
  }

  println(s"masterUrl:$masterUrl, inputPath: $inputPath, outputPath: $outputPath")
  val sparkConf = new SparkConf().setMaster(masterUrl).setAppName("WordCount")
  val sc = new SparkContext(sparkConf)

  val rowRdd = sc.textFile(inputPath)
  val resultRdd = rowRdd.flatMap(line => line.split("\s+"))
   .map(word => (word, 1)).reduceByKey(_ + _)

  resultRdd.saveAsTextFile(outputPath)
 }
}

var masterUrl = “local”

local代表自己本地运行,在 hadoop 上运行添加相应地址

在配置中遇到的错误,会写在另一篇文章里。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持考高分网。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/137886.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号