4、使用kibana
启动elasticsearch、head、kibana、logstash
创建索引applog
将applog配置到kibana中,在index pattern中输入我们的applog索引
最后点击create即可
点击菜单中的discover即可查看日志
三、logback配置
spring-cloud、logstash都是支持logback的,因此需要为微服务配置好相应的logback-spring.xml
这里值得注意的是,在spring-boot中,logback-spring.xml的加载在application.yml之前。而我们需要在logback-spring.xml中使用spring.application.name。因此,我们需要把spring.application.name配置提到bootstrap.yml中。
加载顺序为bootstrap.yml,logback-spring.xml,application.yml
相比普通的logback-spring.xml,我们主要配置这几样东西spring.application.name
,logstash的appender
这里提供一个logback-spring.xml的例子
<?xml version="1.0" encoding="UTF-8"?> <configuration scan="true" scanPeriod="10 seconds"> <springProperty scope="context" name="springAppName" source="spring.application.name" /> <property name="CONSOLE_LOG_PATTERN" value="%date [%thread] %-5level %logger{36} - %msg%n" /> <appender name="stdout" class="ch.qos.logback.core.ConsoleAppender"> <withJansi>true</withJansi> <encoder> <pattern>${CONSOLE_LOG_PATTERN}</pattern> <charset>utf8</charset> </encoder> </appender> <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender"> <destination>192.168.160.66:4560</destination> <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"> <providers> <timestamp> <timeZone>UTC</timeZone> </timestamp> <pattern> <pattern> { "severity":"%level", "service": "${springAppName:-}", "trace": "%X{X-B3-TraceId:-}", "span": "%X{X-B3-SpanId:-}", "exportable": "%X{X-Span-Export:-}", "pid": "${PID:-}", "thread": "%thread", "class": "%logger{40}", "rest": "%message" } </pattern> </pattern> </providers> </encoder> </appender> <appender name="dailyRollingFileAppender" class="ch.qos.logback.core.rolling.RollingFileAppender"> <File>main.log</File> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <FileNamePattern>main.%d{yyyy-MM-dd}.log</FileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> <encoder> <Pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{35} - %msg %n</Pattern> </encoder> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>DEBUG</level> </filter> </appender> <springProfile name="!production"> <logger name="com.myfee" level="DEBUG" /> <logger name="org.springframework.web" level="INFO"/> <root level="info"> <appender-ref ref="stdout" /> <appender-ref ref="dailyRollingFileAppender" /> <appender-ref ref="logstash" /> </root> </springProfile> <springProfile name="production"> <logger name="com.myfee" level="DEBUG" /> <logger name="org.springframework.web" level="INFO"/> <root level="info"> <appender-ref ref="stdout" /> <appender-ref ref="dailyRollingFileAppender" /> <appender-ref ref="logstash" /> </root> </springProfile> </configuration>
我们把message信息配置到了rest字段中。
四、查询日志
启动服务注册中心,网关,需要的微服务,以及sleuth。
启动elasticsearch,head,kibana,logstash,随便运行一个服务,比如
这里会输出一行日志,内容为myService-provider userController
,通过网关调用
eclipse控制台输出日志
在kibana中搜索日志
我们看到日志信息在rest字段中。另外,通过trace和span还可以跟踪到整个微服务的调用过程。到此为止,整个日志采集就搭建完成了。
系统上线后只需要在elasticsearch中就能搜索到各个服务器上,各个微服务的日志内容了。