栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

pyspark sql中如何使用参数

pyspark sql中如何使用参数

在使用pyspark进行sql开发时,很多时候需要往sql中传入参数,这个和scala的使用方式不一样,采用下面的方式可以实现

from pyspark.sql import SparkSession

spark = SparkSession 
    .builder 
    .appName("Python Spark SQL Hive integration example") 
    .enableHiveSupport() 
    .getOrCreate()
date = spark.conf.get("spark.date")
print '参数:',date
spark.sql('''select * from table1
where date = '{0}'
 '''.format(date)).show()

提交命令:

spark-submit 
--master yarn 
--deploy-mode client 
--num-executors 50 
--driver-memory 16G 
--driver-cores 8 
--executor-memory 8G 
--executor-cores 4 
--conf spark.driver.maxResultSize=16G 
--conf spark.network.timeout=500 
--conf spark.sql.shuffle.partitions=600 
--conf spark.yarn.executor.memoryOverhead=8G 
--conf spark.dynamicAllocation.enabled=true 
--conf spark.date='20220131' 
test.py
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/761599.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号