Flink 发行版在 conf 目录中附带了以下 log4j 配置文件,如果启用了 Log4j 2,则会自动使用如下文件:
log4j-cli.properties:Flink 命令行使用(例如 flink run);
log4j-session.properties:Flink 命令行在启动基于 Kubernetes/Yarn 的 Session 集群时使用(例如 kubernetes-session.sh/yarn-session.sh);
log4j-console.properties:Job-/TaskManagers 在前台模式运行时使用(例如 Kubernetes);
log4j.properties: Job-/TaskManagers 默认使用的日志配置。sqlclient在提交的时候是不是就没指定这几个日志文件啊?
楼主你好,Flink SQL Client在提交时没有指定上述几个日志文件。Flink SQL Client在提交作业时,使用的是默认的日志配置,默认的日志配置可以在Flink的安装目录下的conf/log4j.properties
文件中找到。在Flink中,作业的日志输出是通过JobManager和TaskManager的日志来完成的。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。