栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

【回顾】IDEA 开发 SparkSQL 基础编程

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

【回顾】IDEA 开发 SparkSQL 基础编程


文章目录
  • 1、添加依赖
  • 2、代码实现
    • 2.1 构建环境
    • 2.2 Dataframe的创建
    • 2.3 DataSet的创建
    • 2.4 RDD & Dataframe
    • 2.5 RDD & DataSet
    • 2.5 Dataframe & DataSet


1、添加依赖

当前热门的开发编辑器当属 IDEA 了,接下来介绍一下在该款开发工具中的使用。

首先我们需要为Spark-SQL模块导入依赖:


	 org.apache.spark
	 spark-sql_2.11
	 2.2.0

在原有的pom.xml的基础上更新一下即可!(完整配置连接如下,永久有效哦)

提取连接: https://pan.baidu.com/s/1o1px2DBN5AEWDtouxlUhRw
提取码:eirr


2、代码实现 2.1 构建环境

不同于spark-core,在其基础之上,spark-sql内置封装了新的入口SparkSession。起初,SparkSQL创建了两个入口:SQLContext、HiveContext。之后为了解决入口不统一的问题,创建了一个新的入口节点 — SparkSession,作为整个Spark生态工具的统一入口节点,包括了SQLContext、HiveContext、SparkContext等组建的功能。

注意:

  • SparkSession的创建需要借助伴生类的Builder()进行创建,因为原始的SparkSession是私有封装,外部无法直接访问。
object Spark01_sql_test {
 def main(args: Array[String]): Unit = {

   // TODO: 创建sparkSession的运行环境
   val conf = new SparkConf().setMaster("local[*]").setAppName("test")
   val spark = new SparkSession.Builder().config(conf).getOrCreate()

   // TODO:逻辑操作
   ......
   
   // TODO:关闭资源
   spark.stop()
 }
}

返回顶部


2.2 Dataframe的创建

1、构建json数据文件

{"username":"张三","age": 25,"sex":"男"}
{"username":"李四","age": 23,"sex":"男"}
{"username":"王五","age": 24,"sex":"女"}
{"username":"赵六","age": 22,"sex":"男"}

2、获取数据

  • 通过spark.read从文件中获取的数据集会被自动保存为Dataframe类型的数据。
val df: Dataframe = spark.read.json("data/user.json")
df.show()


3、SQL语法

  • 在创建好数据的视图表之后,直接使用spark.sql执行sql语句
println("************SQL*************")
// SQL
df.createOrReplaceGlobalTempView("user")
spark.sql("select * from global_temp.user").show()


4、DSL语法

  • 使用spark封装的 sql 语法API进行具体操作
  • 注意要导入隐式转换:import spark.implicits._
println("************DSL*************")
// DSL
import spark.implicits._  // 隐式转换
df.select('username,$"age",'sex).show()

返回顶部


2.3 DataSet的创建
// TODO:DataSet
val seq = Seq(1,2,3)
val ds = seq.toDS()
ds.show()


查看底层可以知道:type Dataframe = Dataset[Row],也就是Dataframe是DataSet指定类型的一种数据对象,所以Dataframe适用的方法DataSet也均适用。

返回顶部


2.4 RDD & Dataframe
// TODO:RDD <=> Dataframe
// 创建rdd
val rdd: RDD[(Int, String, Int)] = spark.sparkContext.makeRDD(
  List(
    (1,"zhangsan",30),(2,"lisi",25),(3,"wangwu",40)
  )
)

// toDF 转为 Dataframe
val df: Dataframe = rdd.toDF("id","name","age")
df.show()

// df.rdd 转为 rdd:RDD[Row]
val backRDD: RDD[Row] = df.rdd
backRDD.collect().foreach(println)

返回顶部


2.5 RDD & DataSet
// TODO:RDD <=> DataSet
// 创建RDD
val rdd: RDD[(Int, String, Int)] = spark.sparkContext.makeRDD(
  List(
    (1, "zhangsan", 30), (2, "lisi", 25), (3, "wangwu", 40)
  )
)

// 转换RDD的数据类型
val mapRDD: RDD[user] = rdd.map {
  case (id, name, age) => {
    user(id, name, age)
  }
}

// toDS 转为 DataSet
val toDS: Dataset[user] = mapRDD.toDS()
toDS.show()

// ds.rdd 转为 rdd
val backRDD = toDS.rdd
backRDD.collect().foreach(println)

返回顶部


2.5 Dataframe & DataSet
  • Dataframe 转换为 DataSet 需要给出明确的数据结构类型信息,这里我们创建user样例类作为Dataframe的数据结构类型补充。
// 样例类
case class user(id:Int,username:String,age:Int)

// TODO:Dataframe <=> DataSet
val ds: Dataset[user] = df.as[user]
val backDF: Dataframe = ds.toDF()

返回顶部


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/696962.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号