1. 整合Logback,滚动记录+多文件

简介: `logback-spring.xml` 是 Spring Boot 项目中的日志配置文件,用于定义日志输出格式、级别、路径及滚动策略。支持控制台与文件输出,按日志类型(如 INFO、ERROR、SQL、JOB 等)分类存储,便于排查问题。通过 `LogProxy.getLogger("XXX_LOG")` 获取指定日志实例,实现精细化日志管理,适用于多环境部署与调试。

1.logback-spring.xml

<?xml version="1.0" encoding="UTF-8"?>
<!--logback日志配置文件
注意事项:
    1.更改对应LOGHOME(可变更为环境变量、指定Windows/Linux路径)
    2.日志打印级别如需更改,直接更改logger里面的即可
    3.sql打印路径为dao路径
使用说明:
    1.在对应文件如:需要打印任务相关:protected final Logger job_logger = LogProxy.getLogger("JOB_LOG");
    2.getLogger("JOB_LOG")里面的name需和logger标签里保持一致
    3.LogProxy引入路径:import com.zhicall.framework.core.common.utils.log.LogProxy;
      (Logger logger = org.slf4j.LoggerFactory.getLogger(loggerName)等效)
启动加载:
    1.SpringBoot默认加载recources路径下名为:logback-spring的文件
    2.手动在springboot配置文件(application.yml/application.properties)加载
    3.按照当前智康在program arguments中指明(可以避免更改多个环境的问题)
-->
<configuration  scan="true" scanPeriod="60 seconds" >
    <!-- 1.若是additivity设为false,则子Logger只会在自己的appender里输出,不会在root的logger的appender里输出
        2.若是additivity设为true,则子Logger不止会在自己的appender里输出,还会在root的logger的appender里输出 -->
    <property name="ADDITIVITY" value="false"/>
    <property name="LEVEL" value="DEBUG"/>
    <property name="LOGHOME" value="D://hulog//"/>
    <property name="PATTERN" value="%d{yyyy-MM-dd HH:mm:ss.SSS} %X{logChainId} %-5level %logger{50} - %msg%n"/>
    <!--输出到控制台-->
    <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>debug</level>
        </filter>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>
    <!--输出到文件-->
    <!-- 时间滚动输出 level为 INFO 日志 -->
    <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/log_info.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/info/log-info-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!-- 时间滚动输出 SQL日志 -->
    <appender name="SQL_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/sql.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/sql/sql-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!-- 时间滚动输出 level为 ERROR 日志 -->
    <appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/error.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/error/error-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!-- 时间滚动输出 请求参数 日志 -->
    <appender name="REQUEST_PARAM_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/request_param.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/request_param/request_param-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!--支付-->
    <appender name="PAY_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/pay.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/pay/pay-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!--定时任务-->
    <appender name="JOB_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${LOGHOME}/job.log</file>
        <encoder>
            <pattern>${PATTERN}</pattern>
            <charset>UTF-8</charset>
        </encoder>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${LOGHOME}/job/job-%d{yyyy-MM-dd}.log</fileNamePattern>
            <maxHistory>15</maxHistory>
        </rollingPolicy>
    </appender>
    <!--支付-->
    <logger name="PAY_LOG" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="PAY_FILE"/>
    </logger>
    <!--任务-->
    <logger name="JOB_LOG" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="JOB_FILE"/>
    </logger>
    <!--错误-->
    <logger name="ERROR_LOG" additivity="${ADDITIVITY}">
        <level value="ERROR"/>
        <appender-ref ref="ERROR_FILE"/>
    </logger>
    <!--请求参数-->
    <logger name="INFO_LOG" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="INFO_FILE"/>
    </logger>
    <!--请求参数-->
    <logger name="REQUEST_PARAM_LOG" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="REQUEST_PARAM_FILE"/>
    </logger>
    <!--sql日志输出设置-->
    <logger name="cn.zhicall.web.dao" additivity="${ADDITIVITY}">
        <level value="DEBUG"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <!--第三方日志输出配置-->
    <logger name="java.sql.Connection" additivity="${ADDITIVITY}">
        <level value="DEBUG"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <logger name="java.sql.Statement" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <logger name="java.sql.PreparedStatement" additivity="${ADDITIVITY}">
        <level value="DEBUG"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <logger name="com.alibaba.druid" additivity="${ADDITIVITY}">
        <level value="DEBUG"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <logger name="java.sql.ResultSet" additivity="${ADDITIVITY}">
        <level value="INFO" />
        <appender-ref ref="SQL_FILE" />
    </logger>
    <!-- spring的日志输入设置 -->
    <logger name="org.springframework" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="INFO_FILE"/>
    </logger>
    <logger name="org.mybatis.spring.mapper" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="INFO_FILE"/>
    </logger>
    <!-- MyBatis日志输出设置 -->
    <logger name="org.apache.ibatis" level="DEBUG" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <logger name="org.apache.ibatis.io.ResolverUtil" additivity="${ADDITIVITY}">
        <level value="INFO"/>
        <appender-ref ref="SQL_FILE"/>
    </logger>
    <root level="debug">
        <appender-ref ref="CONSOLE" />
    </root>
</configuration>

2.使用示例

package cn.test.web.controller.im;
import com.zhicall.framework.core.common.utils.log.LogProxy;
import org.slf4j.Logger;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.web.bind.annotation.*;
import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;
import redis.clients.jedis.JedisPoolConfig;
import java.util.concurrent.TimeUnit;
/**
 * @author Herb
 * @create 2020-04-26 13:05
 **/
@RestController
@RequestMapping("/test")
public class TestController {
    private Logger logger = LogProxy.getLogger("INFO_LOG");
    
    private Logger logger2 = LogProxy.getLogger("ERROR_LOG");
    @Autowired
    private ImPlatformDoctorService imPlatformDoctorService;
    @Autowired
    protected RedisTemplate redisTemplate;
    @GetMapping("/getuser")
    public void getuser() {
        logger.info("进入getUser(INFO_LOG-INFO)");
        logger.error("进入getUser(INFO_LOG-ERROR)");
        logger2.error("进入getUser(ERROR_LOG-ERROR)");
        imPlatformDoctorService.queryDoctorConfig(10407L, "1");
    }
}
相关文章
|
2月前
|
存储 SQL 监控
SpringBoot- 整合Logback,滚动记录+多文件
`logback-spring.xml` 是 Spring Boot 项目中的日志配置文件,用于定义日志输出格式、级别及存储路径。支持控制台与文件双输出,按时间滚动日志,并分类记录如 SQL、错误、请求参数等信息,便于问题排查与系统监控。
|
2月前
|
存储 缓存 运维
一场FullGC故障排查
本文记录了一次Java应用CPU使用率异常升至104%的排查过程。通过分析发现,问题由Full GC频繁触发导致,根源在于将大体积Excel数据以List&lt;Map&lt;String, String&gt;&gt;形式加载至JVM内存,造成堆内存膨胀且长期驻留,最终引发内存压力和GC风暴。结合JProfiler工具定位到大对象后,提出“治本”(移出JVM内存)与“治标”(精简数据结构)两类解决方案,并总结了从监控识别、工具分析到代码优化的完整排查思路,强调应关注JVM层面而非仅机器指标。
|
2月前
|
运维 Devops 开发工具
生产环境缺陷管理
git-poison基于go-git实现分布式bug追溯,解决多分支开发中bug漏修、漏发等协同难题,自动化卡点发布流程,降低沟通成本,提升发布安全性与效率。
生产环境缺陷管理
|
2月前
|
Java Linux 开发工具
Linux
本文介绍如何将一个SpringBoot应用打包并部署到Linux服务器。包括项目搭建、JAR包打包、JDK安装配置、应用上传与启动,以及通过心跳接口验证服务是否正常运行的完整流程,适用于Java应用的Linux部署入门学习。
Linux
|
2月前
|
Java 测试技术 Linux
生产环境发布管理
本文介绍大型团队中基于自动化部署平台(CI/CD)的多环境发布流程,涵盖dev、test、pre、prod各环境职责,以及如何通过Jenkins+K8S实现高效部署与回滚,并结合Skywalking等工具进行日志追踪与问题排查。
生产环境发布管理
|
2月前
|
运维 NoSQL 测试技术
Redis:内存陡增100%深度复盘
本文复盘了一起Redis因缓冲区占满内存导致服务不可用的事故。根本原因为大KEY引发带宽耗尽,触发Redis内存使用率飙升,最终输入/输出缓冲区膨胀挤占全部内存,导致SET/GET超时。文章深入分析了缓冲区机制、内存淘汰策略,并指出即使配置合理,缓冲区失控仍可致服务崩溃。最后提出开发运维规范,强调压测、监控与合理设计的重要性。
Redis:内存陡增100%深度复盘
|
2月前
|
自然语言处理 fastjson Java
FastJson:大面积故障规避案例
本文记录了一次由Kotlin语法误用引发的FastJson反序列化重大故障排查过程。因将 `{}` 错误赋值给Java对象字段,导致FastJson解析时触发 `kotlin_error` 静态标记位异常,进而引发全局反序列化失败。问题根源隐蔽,影响深远,最终通过深入源码定位并修复。分享多语言混编下的踩坑经验,强调框架不可盲信,代码需严谨对待。(239字)
|
2月前
|
测试技术 UED
发布模式
蓝绿部署通过两套系统(蓝/绿)并行,实现零停机发布与快速回滚;金丝雀发布逐步替换旧版本,降低风险;A/B测试则用于对比多版本效果,优化用户体验。三者适用场景不同,各有侧重。
发布模式
|
2月前
|
存储 缓存 Java
自定义注解
本文介绍Java自定义注解的实现原理与应用,结合Spring AOP和过滤器,演示如何通过@Target、@Retention等元注解定义日志、权限控制及登录验证场景,涵盖从注解定义到拦截处理的完整流程。
自定义注解
|
2月前
|
安全 数据库 数据安全/隐私保护
1.RememberMe简介及用法
RememberMe功能并非简单记住用户名密码,而是通过服务端生成令牌(Token)实现持久登录。用户勾选后,浏览器会携带该令牌自动认证,避免重复登录。为提升安全性,可将Token持久化至数据库并增加二次校验机制,防止泄露风险。