栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Spark 指定日志级别

Spark 指定日志级别

文章目录

方法1(n)方法2(n)方法3(n)方法4(n)方法5(y)

环境:spark2.4.8

方法1(n)

按官方文档上来说只需要修改spark运行环境中log4j.property模板改log4j.propert文件,再修改其中级别即可用,实际上无效

方法2(n)
import org.apache.log4j.{Level, Logger}
Logger.getLogger("org").setLevel(Level.WARN)
方法3(n)
import org.apache.spark.sql.SparkSession

  private[this] implicit val spark = SparkSession.builder().master("local[*]").getOrCreate()

spark.sparkContext.setLogLevel("WARN")
方法4(n)

log4j.properties文件放到项目配置目录

方法5(y)

提交时指定

spark.driver.extraJavaOptions='-Dlog4j.configuration=file:/home/foobar/log4j.properties'
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/753640.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号