栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

pyspark资源配置

pyspark资源配置

pyhton中,想像scala一样,对spark使用资源做指定,如:

spark-submit 
--principal $principal 
--keytab $keytab 
--name Test 
--master yarn --deploy-mode cluster 
--num-executors 10 
--executor-cores 4 
--executor-memory 16G 
--driver-memory 16G 
--conf spark.locality.wait=10 
--conf spark.serializer="org.apache.spark.serializer.KryoSerializer" 
--conf spark.streaming.backpressure.enabled=true 
--conf spark.task.maxFailures=8 
--conf spark.driver.maxResultSize=8G 
--conf spark.default.parallelism=500 
--conf spark.sql.shuffle.partitions=300 
--conf spark.sql.autoBroadcastJoinThreshold=-1 
--conf spark.sql.broadcastTimeout=3000 
--conf spark.yarn.submit.waitAppCompletion=true 
--conf spark.yarn.report.interval=6000 
--conf spark.driver.extraClassPath=$localroot/config 
--conf spark.executor.userClassPathFirst=true 
--conf spark.hbase.obtainToken.enabled=true 
--conf spark.yarn.security.credentials.hbase.enabled=true 
--conf spark.executor.extraJavaOptions="${executorJavaOpts:34}" 
--conf spark.yarn.cluster.driver.extraJavaOptions="${driverJavaOpts:45}" 
--conf spark.driver.userClassPathFirst=true 
--conf spark.yarn.dist.innerfiles=$SPARK_HOME/conf/log4j-executor.properties,$SPARK_HOME/conf/jaas-zk.conf,$SPARK_HOME/conf/carbon.properties,$SPARK_HOME/conf/jets3t.properties,$SPARK_HOME/conf/topology.properties,$SPARK_HOME/conf/mapred-site.xml 
--files $localroot/config/logback.xml,
$localroot/config/hbase-site.xml,$localroot/config/kdc.conf,${uploadFiles} 
--class com.huawei.rcm.newsfeed.boxrcm.nearby.CityInfoParse 
--jars $localroot/lib/bcprov-ext-jdk15on-1.68.jar,
$localroot/lib/CryptoUtil-1.1.5.304.jar,
$localroot/lib/commons-pool2-2.8.1.jar,
$localroot/lib/jedis-2.9.0.jar,$localroot/lib/com.huawei.dcs.dcsdk.core-1.6.18.101.jar,$localroot/lib/com.huawei.dcs.dcsdk.support.onejar-1.6.18.101.jar,$localroot/lib/gpaas-middleware-common-2.2.5.101.jar,
$app_jarpath 
$arg1 
$arg2 
$arg3 

但很难查到pyspark任务的资源指定配置。

其实很相似,方法如下:

keytab_path=/home/testuser/wdbkeytab/user.keytab

anaconda_archive=hdfs://teset/anaconda3.tar.gz#anaconda_pack
application_name=task_id_$1_$2

pyspark_python="./anaconda_pack/anaconda3/bin/python"


 spark-submit --master yarn --deploy-mode cluster --name $application_name 
 --driver-cores 2 
 --driver-memory 64G 
 --queue $queue 
 --num-executors 50 
 --executor-memory 3g 
 --executor-cores 2 
 --principal $principal 
 --keytab $keytab_path 
 --archives $anaconda_archive 
 --conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=$pyspark_python 
 --conf spark.executorEnv.PYSPARK_PYTHON=$pyspark_python 
 --conf spark.driver.maxResultSize=10G 
 --conf spark.default.parallelism=1000 
 --conf spark.speculation=true --conf spark.speculation.interval=60000 --conf spark.speculation.quantile=0.85 
 --conf spark.hadoop.mapreduce.input.fileinputformat.input.dir.recursive=true 
 --conf spark.security.credentials.hbase.enabled=true 
 --conf spark.hadoop.validateOutputSpecs=false 
 --conf spark.yarn.user.classpath.first=true 
 --conf spark.executor.memoryOverhead=40960 
 --conf spark.yarn.am.waitTime=1000s 
 --py-files test.py 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/780485.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号