开发者社区> 问答> 正文

如何在Spark中压制“代码生成”和“清理累积器”消息

我写了一篇spark代码。工作顺利,没有任何问题。但是,当我查看我的错误日志文件时,我看到很多的消息类

[error] 18/11/25 17:28:14 INFO CodeGenerator: Code
generated in 16.947005 ms

[error] 18/11/25 17:28:15 INFO ContextCleaner: Cleaned
accumulator 239819

[error] 18/11/25 17:28:06 INFO BlockManagerInfo: Removed
broadcast_13354_piece0 on 192.168.2.101:43753 in memory
(size: 20.5 KB, free: 6.2 GB)
有没有办法压制这些消息。

不确定为什么spark会将这些报告为错误。他们看起来像某种调试消息。

展开
收起
社区小助手 2018-12-06 15:28:30 1956 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    在创建对象时SparkContext,使用以下代码根据需要设置日志级别:

    sparkContext.setLogLevel("WARN")
    上面的行将设置日志级别为Sparkto WARN,你将不会获得任何INFO或DEBUG级别日志。

    2019-07-17 23:18:34
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载