Spark应用程序运行的日志存在哪里(转)
- 作者: 五速梦信息网
- 时间: 2026年04月04日 13:27
在很多情况下,我们需要查看driver和executors在运行Spark应用程序时候产生的日志,这些日志对于我们调试和查找问题是很重要的。
SPARK_WORKER_DIR
(2)、如果是Mesos模式,我们同样可以通过Mesos的Master UI界面上看到相关应用程序的日志,这些日志是存储在Mesos slave的work目录下。
yarn logs -applicationId yarn.log-aggregation-enable
Tracking UIApplicationMaster
ExecutorsExecutorsLogsprintln(....)
$SPARK_HOME/conf/log4j.properties
01# User: 过往记忆02# Date: 2015-05-01503# Time: 上午07:26040506# 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货07# 过往记忆博客微信公共帐号:iteblog_hadoop08spark.root.logger=WARN,console0910log4j.rootLogger=${spark.root.logger}1112log4j.appender.console=org.apache.log4j.ConsoleAppender13log4j.appender.console.target=System.err14log4j.appender.console.layout=org.apache.log4j.PatternLayout15log4j.appender.console.layout.ConversionPattern=%d (%t) [%p - %l] %m%n
--fileslog4j.properties
- 上一篇: SPA网页到底是什么
- 下一篇: Spark入门实战系列






