Spark应用程序运行的日志存在哪里(转)

在很多情况下,我们需要查看driver和executors在运行Spark应用程序时候产生的日志,这些日志对于我们调试和查找问题是很重要的。

SPARK_WORKER_DIR

  (2)、如果是Mesos模式,我们同样可以通过Mesos的Master UI界面上看到相关应用程序的日志,这些日志是存储在Mesos slave的work目录下。

yarn logs -applicationId yarn.log-aggregation-enable
Tracking UIApplicationMaster
ExecutorsExecutorsLogsprintln(....)
$SPARK_HOME/conf/log4j.properties
01# User: 过往记忆02# Date: 2015-05-01503# Time: 上午07:26040506# 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货07# 过往记忆博客微信公共帐号:iteblog_hadoop08spark.root.logger=WARN,console0910log4j.rootLogger=${spark.root.logger}1112log4j.appender.console=org.apache.log4j.ConsoleAppender13log4j.appender.console.target=System.err14log4j.appender.console.layout=org.apache.log4j.PatternLayout15log4j.appender.console.layout.ConversionPattern=%d (%t) [%p - %l] %m%n
--fileslog4j.properties