栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

使用scala语言编写Spark独立应用程序统计文件行数

使用scala语言编写Spark独立应用程序统计文件行数

实现内容:
使用scala语言编写独立应用程序,读取HDFS系统文件“/user/hadoop/test.txt”,统计文件行数。
通过使用sbt工具将整个应用程序打包成jar包,并将jar包通过spark-submit提交到spark中运行。
代码:
SimpleApp.scala

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object SimpleApp{
  def main(args:Array[String]){
    val logFile = "/user/hadoop/test.txt"
    val conf = new SparkConf().setAppName("Simple Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile,2).cache()
    val num = logData.count()
    println("Long: %s".format(num))
  }
}

Simple.sbt
输入spark中显示的对应版本即可!

name :="Simple Project"
version := "1.0"
scalaVersion := "2.12.10"
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.1.2"

打包并运行:

如果不加grep锁定,会显示很多其他不需要的信息。
我们可以看到标红的地方就是最后输出的结果。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/700534.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号