6、Spark的Log4J配置
2016-11-29 00:00
141 查看
#在Spark的conf中,有一个配置文件log4j.properties
#它里面可以指定Spark每一个模块的日志级别。比如说Spark-sql、Spark-shell等等
#配置如下:
#它里面可以指定Spark每一个模块的日志级别。比如说Spark-sql、Spark-shell等等
#配置如下:
# Set everything to be logged to the console log4j.rootCategory=INFO, console log4j.appender.console=org.apache.log4j.ConsoleAppender log4j.appender.console.target=System.err log4j.appender.console.layout=org.apache.log4j.PatternLayout log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n # Settings to quiet third party logs that are too verbose log4j.logger.org.spark-project.jetty=WARN log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO log4j.logger.org.apache.parquet=ERROR log4j.logger.parquet=ERROR # SPARK-9183: Settings to avoid annoying messages when looking up nonexistent UDFs in SparkSQL with Hive supp ort log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR
相关文章推荐
- spark log4j.properties配置详解与实例
- Spark配置log4j日志输出
- Intellij IDEA配置log4j过滤Spark INFO信息
- spark log4j.properties配置详解与实例
- Log4j的使用之配置
- Log4J 最佳实践之全能配置文件
- log4j配置笔记
- 一个log4j的配置文件
- 配置成功的log4j的属性文件
- JAVA学习-之-log4j配置文件
- Log4j的简单配置使用!
- 关于Log4j比较全面的配置
- log4j的配置文件讲解(草稿)
- [转载]常用log4j配置
- JBUILDER:Application中快速配置LOG4J
- 常用log4j配置
- log4j配置笔记(转)
- 一个全面的Log4j属性配置文件
- Log4J 最佳实践之全能配置文件
- 关于Log4j比较全面的配置